贺品嘉-LLM内容安全性的挑战与优化从数据到算法

3.0 2025-05-10 19 0 7672 KB 65 页 PDF
侵权投诉
贺品嘉-LLM内容安全性的挑战与优化从数据到算法
贺品嘉-LLM内容安全性的挑战与优化从数据到算法
贺品嘉-LLM内容安全性的挑战与优化从数据到算法
贺品嘉-LLM内容安全性的挑战与优化从数据到算法
贺品嘉-LLM内容安全性的挑战与优化从数据到算法
摘要:

LLM内容安全性的挑战与优化:从数据到算法贺品嘉 | 香港中文大学(深圳)演讲嘉宾贺品嘉国家级青年人才香港中文大学(深圳)助理教授,期刊TOSEM副编辑,开源项目在GitHub上共收获6000+ stars,并被450+学界与业界组织下载6万余次,研究方向为AI for SE、SE for AI、智能运维、大模型安全目 录CONTENTS1.大模型的内容安全2.数据视角下的安全问题3.[OOD] CipherChat4.[BIAS] DeRTa5.总结与展望大模型的内容安全PART 01大模型的内容安全(Zhao et al. 2023) A Survey of Large Language Models. Preprint.•大模型将AI的智能水平推向了一个新的高度大模型的内容安全(Ouyang et al. 2022) Training language models to follow instructions with human feedback. NeurIPS.•预训练:大模型首先在海量数据上学习 Next-Token-Prediction•后训练:监督微调(SFT),然后 偏好对齐 (e.g. RLHF,DPO)SFTRLHF大模型的内容安全•In-Context-Learning (ICL):结合 ICL,经过训练的模型可以按照要求完成各种任务大模型的内容安全(Xie et al. 2023) Sorry-Bench: Systematically Evaluating Large Language Model Safety Refusal Behaviors. Preprint.•对于危险问题:指令遵循 VS 安全拒绝•这两个训练目标之间的竞争,可能导致诸多安全风险当被要求遵循危险指令(e.g. 如何制作炸弹),模型的回复中是否包含能有效指导完成该指令的内容。本次报告中的安全性定义数据视角下的安全问题PART 02数据视角下的安全问题模型,在训练数据上,以训练目标为指导,更新参数•模型架构:Transformer Decoder-only•训练目标:指令遵循 VS 安全拒绝•训练数据:?•当前的训练数据,可能存在什么样的问题?•什么样的训练数据,可以训练出更安全的模型?训练数据数据视角下的安全问题我们尝试从两个经典的概念,OOD和Bias,出发,

展开>> 收起<<
贺品嘉-LLM内容安全性的挑战与优化从数据到算法

共 65 页,预览3页

还剩62页未读, 继续阅读

声明:企商查报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
作者: 分类: 属性:65 页 大小:7672 KB 格式:PDF 时间:2025-05-10

开通VIP享超值会员特权

  • 多端同步记录
  • 高速下载文档
  • 免费文档工具
  • 分享文档赚钱
  • 每日登录抽奖
  • 优质衍生服务
/ 3
客服
关注