会员登录 - 用户注册 - 设为首页 - 加入收藏 - 网站地图 AI投毒第一案!GPT写的代码竟有后门 程序员上圈套1.8万元!

AI投毒第一案!GPT写的代码竟有后门 程序员上圈套1.8万元

时间:2025-05-25 02:05:22 来源:锐评时讯 作者:新闻 阅读:290次

快科技11月23日音讯,跟着AI大模型技能的不断进步,很多工作的工作效率得到了明显提高。

例如,在编程范畴,这些先进的AI东西不只可以帮忙程序员编写代码,还能高效地处理程序中的BUG,成为开发者们不可或缺的帮手。

但是,近期产生的一同事情却引发了业界对AI安全性的广泛重视。

据报道,一位英国程序员在运用GPT生成的代码时遭受了不幸。他依照GPT供给的代码进行了操作,成果导致自己的私钥被走漏给了垂钓网站,终究丢失了2500美元(约合人民币1.8万元)。

网友“余弦”在交际媒体上发文提示广阔用户,在运用GPT、Claude等大型言语模型(LLM)时有必要坚持警惕,由于这些模型存在普遍性的诈骗行为危险。

他进一步警示说:“之前提过AI投毒进犯,现在这起算是针对Crypto职业的实在进犯事例。”。

通过深入分析,有网友发现。GPT在生成代码的过程中引用了一个来自GitHub的歹意项目。这个项目显然是一个精心设计的“垂钓”圈套,拐骗运用者受骗。

不幸的是,GPT在这次事情中成为了无辜的受害者,但其生成的代码却给用户带来了严峻的结果。

这起事情再次提示咱们,在享用AI带来的便当的一起,也有必要时间重视其潜在的安全危险。关于开发者而言,在运用AI辅助东西时应当坚持慎重情绪,防止盲目信赖机器生成的代码或主张。

内容来源:https://fastrans.nhobethoi.com/app-1/aw8,http://chatbotjud.saude.mg.gov.br/app-1/brazino-significado

(责任编辑:人文)

    系统发生错误

    系统发生错误

    您可以选择 [ 重试 ] [ 返回 ] 或者 [ 回到首页 ]

    [ 错误信息 ]

    页面发生异常错误,系统设置开启调试模式后,刷新本页查看具体错误!