2024-10-10 19:35:341719人阅读
9月25日,2024百度云智大会在北京举办。在大模型平台技术实践论坛上,百度大模型内容安全平台负责人李志伟以《大模型内容安全合规实践》为主题,为与会者深度剖析大模型的安全挑战与解决方案的落地实践。
2024-09-26 00:28:2410882人阅读
9月12日,在国家网络安全宣传周成都系列活动上,云安全联盟CSA大中华区联合百度安全正式发布《AI安全产业图谱(2024)》。
2024-08-14 18:39:318949人阅读
随着大模型的逐步发展,内容安全问题受到了前所未有的关注。为此,InfoQ 特别邀请百度安全副总经理冯景辉在 8 月 18-19 日的 AICon 全球人工智能大会(上海站)上,分享《百度大模型原生安全构建之路》的主题演讲。本文是对冯景辉的会前采访对谈。
2024-06-21 22:32:277645人阅读
6月20日,2024世界智能产业博览会在天津开幕。百度大模型安全解决方案荣获“2024世界智能产业博览会“Find智能科技创新应用优秀案例”典型案例。
2024-06-19 11:38:288379人阅读
WAVE SUMMIT 深度学习开发者大会 2024 由深度学习技术及应用国家工程研究中心主办,百度飞桨、文心大模型联合承办。大会将由深度学习技术及应用国家工程研究中心主任、百度首席技术官王海峰等业界重磅嘉宾领衔,将与万千开发者分享国产大模型在技术创新、产业应用、生态社区等方面的最新进展。
2024-06-07 14:22:268478人阅读
在大模型的实际应用落地过程中,会遇到所谓的幻觉(Hallucination)问题。对于语言模型而言,当生成的文本语法正确流畅,但与原文不符(Faithfulness)或事实不符(Factualness)时,模型便出现了幻觉的问题。在传统自然语言处理中,幻觉一般指模型输出与原文信息存在冲突,或添加不在原文的额外信息。
2024-03-14 13:32:3716525人阅读
为了更好地帮助大模型开发者及时发现模型自身的风险,评测过程中包含高级攻击的评测,百度大模型内容安全评测建立了科学,全面的攻击分类体系与构造工具,与基础内容类别结合的方法去评测高级攻击的风险情况,被评测大模型在高级攻击方面的风险可以做到更细致,更准确的认知,助力企业构建平稳健康、可信可靠的大模型服务。
2024-01-02 14:11:4517379人阅读
2024-01-02 13:37:2812023人阅读
2023-12-12 13:29:0116158人阅读
2023-11-28 13:50:0515351人阅读