OpenAI的报告称,其模型正被用来影响选举。它还表示,它已经关闭了20多个依赖其人工智能模型进行此类恶意活动的操作。 ;
OpenAI报告“关于破坏人工智能欺骗性使用的最新情况”,还强调了在处理政治内容时需要保持警惕。
该文件显示了一种趋势,OpenAI的模型成为扰乱选举和传播政治错误信息的主要工具。通常由国家资助的不良行为者将这些人工智能模型用于各种活动,包括在社交媒体上为虚假角色生成内容和恶意软件逆向工程。
OpenAI在人工智能选举和政治中的影响力日益增强
8月下旬,OpenAI中断了伊朗战役他们制作社交媒体内容,以影响美国选举、委内瑞拉政治、加沙冲突和以色列的舆论。据报道,一些随后被禁止的账户也在发布有关卢旺达选举的信息 ;
调查还发现,一家以色列公司也试图操纵印度的民意调查结果 ;
然而,OpenAI指出,这些活动并没有病毒式传播,也没有培养出大量的受众。与这些活动相关的社交媒体帖子获得的吸引力微乎其微。这可能表明,通过人工智能驱动的错误信息运动来影响公众舆论是困难的 ;
从历史上看,政治竞选活动通常是由竞选方的错误信息推动的。然而,人工智能的出现对政治体系的完整性构成了不同的威胁。 世界经济论坛世界经济论坛表示,2024年是选举的历史性一年,有50个国家举行了选举。 ;
日常使用的LLM已经能够更快、更令人信服地创建和传播错误信息。
监管和合作努力
为了应对这一潜在威胁,OpenAI表示,它正在通过共享威胁情报与相关利益相关者合作。它预计这种合作方式足以监管错误信息渠道,促进人工智能的道德使用,特别是在政治背景下 ;
OpenAI报告称,“尽管此次行动缺乏有意义的受众参与,但我们认真对待在外国影响力行动中使用我们服务的任何努力。”;
这家人工智能公司还强调,必须建立强大的安全防御机制,以防止国家支持的网络攻击者利用人工智能进行欺骗性和破坏性的在线活动 ;
世界经济论坛还强调了制定人工智能法规的必要性,称“关于互操作标准和基线监管要求的国际协议将在促进创新和提高人工智能安全方面发挥重要作用。”;
开发有效的框架需要OpenAI等科技公司、公共部门和私人利益相关者之间的战略伙伴关系,这将有助于实施合乎道德的人工智能系统。