本文来自微信公众号:大数据文摘(ID:BigDataDigest),作者:大数据文摘,原文标题:《ChatGPT“赏金猎人”招募!OpenAI悬赏2万美元,给ChatGPT找Bug》,头图来自:unsplash


就在昨天,OpenAI 宣布推出一个赏金计划,帮助应对 ChatGPT 带来的日益增长的网络安全风险。


这个“赏金猎人计划”邀请各类独立研究人员报告 OpenAI 系统中的漏洞,参与者有机会获得200美元至2万美元不等的经济奖励,具体金额取决于漏洞的严重程度。


该项目与众包网络安全公司 BugCrowd 合作开展的,OpenAI 表示,该项目是其“致力于开发安全、先进的人工智能”的一部分。


所以说,大家如果在和 ChatGPT 聊天的过程中,发现什么漏洞(比如动不动就要毁灭人类)的话,一定要及时上报,万一能帮助发现一个漏洞,就可以拿赏金了!


ChatGPT 诞生以来,人们越来越担心这类的人工智能系统出现漏洞,比如生成错误信息和不道德的信息,据人工智能网络安全公司 Dark Trace 称,研究人员发现,从1月到2月,使用人工智能的社交工程攻击增加了135% ,这与 ChatGPT 的推出时间相吻合。


ChatGPT 的出现,无疑降低了网络攻击的门槛,尤其是新推出的 GPT-4。


就在 GPT-4 推出几天后,华盛顿大学计算机科学专业的学生 Alex Albert 找到了一种越过其安全机制的方法。在 Twitter 上发布的一个演示中,Albert 展示了用户如何通过利用 GPT-4 解释和响应文本的方式中的漏洞,提示 GPT-4 生成黑客计算机的指令。



这一赏金计划正是为了解决这一系列安全问题引发的广泛担忧,此前,一位名为 Rez0 的安全研究人员涉嫌利用一个漏洞攻击 ChatGPT 的 API,并发现了80多个秘密插件。


鉴于这些争议, OpenAI 启动了这个赏金奖励,鼓励研究员报告漏洞,以解决其产品生态系统中的缺陷,同时将自己定位为一个真诚行事的组织,以解决由生成式 AI 带来的安全风险。


专家:“赏金计划”效果有限


尽管 OpenAI 的计划受到一些专家的欢迎,但其他专家表示,赏金计划不太可能完全解决日益尖端的人工智能技术带来的网络安全风险。


专家认为,OpenAI 的赏金计划在它处理的威胁范围上非常有限。例如,赏金计划的官方页面指出:“与示范提示和响应内容有关的问题严格超出了范围,除非它们对范围内的服务产生了额外的、可直接验证的安全影响,否则将不会得到奖励。”


被认为超出范围的安全问题的例子包括越狱和绕开安全模式,让模型“说坏话(不道德的言论)”,让模型编写恶意代码或者让模型告诉你如何将坏事付诸行动。


从这个意义上说,OpenAI 的漏洞赏金计划可能有助于帮助组织改善自身的安全态势,但对解决由生成式 AI 和 GPT-4 给整个社会带来的安全风险几乎没有作用。


所以许多人认为,由于该项目的范围仅限于可能直接影响 OpenAI 系统和合作伙伴的漏洞,它似乎没有解决对恶意使用诸如冒充、合成媒体或自动化黑客工具等技术的更广泛的担忧。


OpenAI 没有立即回应媒体的置评请求。


参考链接:

https://venturebeat.com/security/openai-announces-bug-bounty-program-to-address-ai-security-risks/

https://bugcrowd.com/openai


本文来自微信公众号:大数据文摘(ID:BigDataDigest),作者:大数据文摘