根据网络安全公司Group-IB的研究报告,近期,全球暗网市场上的OpenAI的ChatGPT凭证数量惊人,总数达到20多万个。这些账户被盗用,源于网络犯罪分子通过RedLine和LummaC2等信息窃取恶意软件,对目标设备实施攻击。
对比2023年1月至5月的数据,从6月至10月,泄露的ChatGPT凭证数量增长了36%,其中LummaC2成为最常用的泄露工具。与此同时,网络犯罪分子还开发了仿照ChatGPT的工具,如WormGPT、WolfGPT、DarkBARD和FraudGPT,它们采用社交工程和网络钓鱼策略,以实现伪造恶意软件活动。
这一现象揭示了与敏感组织数据相关的重大威胁。员工在使用聊天机器人时,有时会不慎输入机密信息或专有代码,这为网络犯罪分子提供了获取敏感信息的机会。报告指出,超过4%的员工在使用人工智能聊天机器人时,曾输入包含商业信息、个人身份信息和源代码等敏感数据。
为了应对这一挑战,报告建议组织应采取一系列措施,包括控制复制粘贴操作以及实施组级安全控制,以保护人工智能交互的安全性。
本内容来源于原创、合作伙伴供稿和第三方自媒体作者投稿,旨在提供信息参考,不承担任何因使用信息产生的法律责任。在发现可能侵犯知识产权或存在不实内容的情况下,请及时联系我们提供相关法律文件,我们将依法处理。