HodlX客座文章 ; ;提交您的帖子
 ;过去几年,人工智能技术创新增长的自发步伐继续引发一系列反应,从好奇心和热情到担忧和彻底的恐惧。
然而,有一件事是相当确定的
这是一场正在进行的全球人工智能主导地位竞赛。一方面,这得益于计算成本的相对下降,另一方面,不同能力的用户快速采用和应用人工智能工具。
不同行业的企业主、公司和专业人士正在接受人工智能提供的巨大增长潜力、成本效益、减少人为错误和提高利润率。
与此同时,“狂野西部”人工智能的风险和固有危险已经变得如此明显,需要监管和人工智能治理。
AI的现状
OpenAI于2022年推出的ChatGPT为人工智能领域的创新者敲响了警钟。
在发布之前,虽然谷歌、微软和Meta等公司已经在人工智能列车上,但并没有取得多大成功
尤其是在公共领域。BlenderBot 3是严厉的批评卡拉狄加必须被拉倒三天后还有Tay没能活下来24小时推特。
ChatGPT的商业成功引发了一波人工智能技术浪潮,新的重点是允许直接用户交互的工具和应用程序。
谷歌推出Bard投资OpenAI允许其将生成式人工智能技术集成到其搜索引擎中 Bing。
现在双子座 作为直接竞争对手,而微软的130亿美元其他行业也没有被排除在“人工智能复兴”之外
金融机构采用人工智能解决方案进行欺诈检测,其算法利用行为分析、自然语言处理和模式识别来识别欺诈活动。在医疗保健行业,人工智能正在帮助改善患者经验与诊断,解释X射线结果,管理医疗保健数据等等。
监管的必要性
随着公司和企业越来越多地将人工智能技术纳入其产品、决策过程和服务交付中,人们关注的焦点是这些算法背后的数据过程和人工智能结果。
也许,错误信息仍然是生成式人工智能最大的真正风险之一。
2022年,据称有一张照片显示爆炸五角大楼附近的人在社交媒体上四处走动,并短暂引发了股市的恐慌反应。
更危险的是人工智能生成的新闻和深度造假可能造成的政治影响。
与人工智能文章并排发布真实新闻的媒体可能会大规模传播错误信息,并削弱公众对他们所看到或听到的内容的信任。
一个例子是新闻报道被NewsGuard发现声称以色列总理参与了他的精神科医生的死亡。
有偏见的人工智能模型也可能导致大规模的歧视。A.研究文章加州大学的一项研究发现,在一种广泛使用的医疗算法中存在种族偏见。
由于人工智能系统通常用于大型组织,算法歧视可能会放大偏见,使传统系统的能力相形见绌。
虽然世界末日人工智能接管人类文明可能有点过于富有想象力,但高级骗局则不然。
使用人工智能的恶意行为者可以策划和实施近乎完美的骗局,即使公众越来越难以区分虚假和真实。
人工智能监管措施
认识到不受监管的人工智能的固有危险,世界各国政府都在密切关注这一问题。
一些人甚至发布了指导人工智能技术使用的指导方针和框架
让我们来看看其中的一些。欧盟人工智能法案
正如GDPR(通用数据保护条例)一样,欧盟是首批阐明人工智能立法的政府机构之一。
这个欧盟人工智能法案“为欧盟人工智能监管奠定了基础”,并将人工智能风险分为四个不同的风险类别,具体如下。
- 不可接受的风险
- 高风险
- 风险有限
- 风险最小
通过根据人工智能系统所属的风险类别对其应用特定要求,欧盟希望建立一个人工智能环境,以提高信任并最大限度地减少此类技术的负面影响。
例如,受潜意识操纵的人工智能系统和基于敏感字符的人的生物特征分类
例如,选举虚假信息工具和有偏见的算法 被归类为不可接受的风险并被禁止。该法案还涵盖了上市后监测和信息共享的其他措施。
美国AI行政命令
2023年,白宫科技政策办公室推出了一项“人工智能权利法案蓝图美国国家标准与技术研究院也发布了一份人工智能风险管理框架.’
然而,也许最重要的人工智能监管举措是拜登总统的行政命令关于“人工智能的安全、可靠和值得信赖的开发和使用”
该命令涵盖了八个政策领域,以“确保人工智能安全和安保的新标准,促进公平和民权消费者,保护公民隐私免受人工智能相关风险”等。
中国人工智能监管
中国从2021年开始制定人工智能法律,从“新一代人工智能伦理准则.’
其他措施,如中国的《深度综合规定》、《互联网信息服务算法建议管理规定》、“生成式人工智能服务管理暂行办法”和《个人信息保护法》,都试图抓住社会主义政府在中国人工智能技术的开发、使用和安全控制方面的立场。
人工智能监管面临的挑战
- 技术增长速度 人工智能创新的快速加速使得政府监管难以预测或制定全面的监管框架。《欧盟人工智能法案》试图通过使用不同的分类级别来解决这个问题。然而,人工智能技术的快速发展可能会超过现有的法规,因此需要持续的灵活性和响应敏捷性。
- 官僚主义混乱 在许多情况下,人工智能法规与其他现有法规相互依赖、相互作用和重叠。这有时会导致地方实施中的官僚主义混乱,甚至阻碍国际合作,特别是由于跨境监管标准和框架的差异。
- 监管创新平衡 在某些情况下,监管人工智能技术可能会扼杀创新,限制探索性增长。决定哪些/何时监管措施有利于创新可能是一项棘手的挑战,并带来可怕的后果。
综合起来
有效的人工智能监管需要政府、行业领导者和私营部门专家的合作,以确保道德标准跟上技术进步的步伐。
然而,在减轻人工智能的潜在风险和利用该技术为人类带来更大利益之间取得关键平衡也很重要。
Daniel Keller是InFlux技术在技术、医疗保健和非营利/慈善工作方面拥有超过25年的IT经验。他成功地管理了基础设施,弥合了运营差距,并有效地部署了技术项目。作为一名企业家、投资者和颠覆性技术倡导者,Daniel的精神与Flux Web 3.0团队中的许多人产生了共鸣——“为人民服务,为人民服务”——并深度参与了对人类有益的项目。
生成图像:DALLE3