AI投毒第一案!GPT写的代码竟有后门 程序员上圈套1.8万元
时间:2025-05-25 02:05:22 来源:锐评时讯 作者:新闻 阅读:290次
快科技11月23日音讯,跟着AI大模型技能的不断进步,很多工作的工作效率得到了明显提高。
例如,在编程范畴,这些先进的AI东西不只可以帮忙程序员编写代码,还能高效地处理程序中的BUG,成为开发者们不可或缺的帮手。
但是,近期产生的一同事情却引发了业界对AI安全性的广泛重视。
据报道,一位英国程序员在运用GPT生成的代码时遭受了不幸。他依照GPT供给的代码进行了操作,成果导致自己的私钥被走漏给了垂钓网站,终究丢失了2500美元(约合人民币1.8万元)。
网友“余弦”在交际媒体上发文提示广阔用户,在运用GPT、Claude等大型言语模型(LLM)时有必要坚持警惕,由于这些模型存在普遍性的诈骗行为危险。
他进一步警示说:“之前提过AI投毒进犯,现在这起算是针对Crypto职业的实在进犯事例。”。
通过深入分析,有网友发现。GPT在生成代码的过程中引用了一个来自GitHub的歹意项目。这个项目显然是一个精心设计的“垂钓”圈套,拐骗运用者受骗。
不幸的是,GPT在这次事情中成为了无辜的受害者,但其生成的代码却给用户带来了严峻的结果。
这起事情再次提示咱们,在享用AI带来的便当的一起,也有必要时间重视其潜在的安全危险。关于开发者而言,在运用AI辅助东西时应当坚持慎重情绪,防止盲目信赖机器生成的代码或主张。
内容来源:https://fastrans.nhobethoi.com/app-1/aw8,http://chatbotjud.saude.mg.gov.br/app-1/brazino-significado
(责任编辑:人文)