理解和减轻人工智能的风险. 传统的软件

贝琳达穆勒
作者: 贝琳达穆勒
发表日期: 2023年3月27日

人工智能(AI)的使用最近获得了相当大的势头, 特别是随着OpenAI聊天机器人ChatGTP的发布1 人工智能变得更容易获得, 它现在正在改变人们的工作方式, 沟通和做决定. 这似乎又一次创造了一个技术颠覆的时刻. 然而, 尽管人工智能现在是日常生活的一部分, 通常人们对人工智能的含义没有共同的理解. 人们对人工智能的看法不一,有人认为它是一堆花哨但无害的算法,也有人认为它是人类的终结. 除了, 对于人工智能是否拥有更多或更少的理想品质(如公平性),人们的看法非常不同, 精度, 比人类或传统的基于规则的软件更健壮.

然而,很明显,如何应对人工智能并不明显. 对ChatGPT的输出有多少信任? 澳门赌场官方下载能否依靠人工智能做出招聘决策? 人们应该如何看待一个人工智能工具来决定他们的信用额度? 人工智能的使用缺乏明确性,促使监管机构开始提出法律框架的建议. 特别是, 欧盟人工智能法案, 旨在规范人工智能在欧盟的道德和安全部署, 可能很快就会实施. 2022年12月, 欧洲理事会就欧盟人工智能法案提案的谈判授权达成共识.2

其次是与许多已部署的IT系统有关的风险, 比如缺乏安全性和数据保护, 人工智能系统也存在着独特的风险.e.、基于机器学习的人工智能). 目前,还没有成熟的技术来评估和减轻这种风险. 因此, 理解是什么让AI与传统的基于规则的系统如此不同,以及如何解决这些差异是至关重要的. 当将基于规则的系统与AI进行比较时,AI系统有3个特别相关的特征:可解释性, 公平性和稳健性.

理解是什么让AI与传统的基于规则的系统如此不同,以及如何解决这些差异是至关重要的.

Explainability

如果人工智能系统的输出和背后的推理能够被人类理解和信任,那么它就是可解释的. 无法解释人工智能系统的输出会使其难以控制其正确性和缺乏偏见. 基于规则的算法可以基于预定义的规则来理解和解释, 许多人工智能模型被认为是所谓的黑匣子. 事实上, 一些更复杂的模型的内部工作原理甚至对它们的开发人员来说也很难理解. 随着人工智能的应用越来越广泛, 以及用于医疗诊断或招聘决策等关键目的, 可解释性将变得不可或缺. 满足可解释性的要求, 一种选择是使用非常简单且易于解释的人工智能模型. 然而,对于许多用例来说,这样简单的模型是不够的. 对于更复杂的模型, 研究人员和实践者正在开发模型不可知和模型特定的方法. 特别是, IBM等大型科技澳门赌场官方下载, 微软和谷歌为所谓的可解释人工智能(XAI)提供了工具:AI可解释性3603 和InterpretML.4

公平

最近, there have been outcries from people feeling discriminated against by AI systems; for instance, 由奥地利的一家职业介绍所提供.5 人工智能系统的公平性意味着确保其中立性,防止基于种族等受保护属性的歧视, 性别和年龄. 由于人工智能是在真实世界的数据上训练的,所以它反映了从这些数据中学习到的偏见.g.(社会、历史偏见). 从这个意义上说, 不能指责人工智能比生成其训练数据的社会更有偏见. 基于规则的系统也不一定没有偏见,因为它的开发者可能会无意识地将他们的偏见注入系统. 然而,由于人工智能系统可以大规模运行(例如.g., ChatGPT)并影响大量澳门赌场官方下载, 它们可以系统地延续和扩大偏见和歧视模式. 减轻人工智能模型中的不公平, 研究人员和从业人员正在努力通过公平指标识别偏见,并通过偏见纠正算法减轻偏见. 然而, 选择正确的公平指标绝非易事,因为对公平的解释是主观的,因人而异. 事实上, 在将对公平的共同理解转化为技术要求之前,人工智能的公平性考虑涉及大量的伦理反思. 因此, 人工智能模型的公平性不仅仅是一个技术问题, 但这也是一个伦理问题,需要相应的专业知识. 

鲁棒性

人工智能模型的鲁棒性是指它能够承受新环境和不可预见的输入的挑战. 例如, 如果AI模型过于接近训练数据(过度拟合),或者训练数据在统计上与模型部署时测试的数据不同(数据分布移位),则AI模型可能会缺乏鲁棒性。. 人工智能系统还面临着恶意行为者利用模型特定漏洞的风险,他们将损坏或误导性的数据引入训练数据集中(数据中毒),或用受干扰的数据欺骗系统(对抗性攻击)。. 例如, 图像识别系统可能会将苹果的图像分类为“apple”,,但如果攻击者在苹果上贴上“iPod”的标签,,它可能会将图像归类为iPod.6 所谓的捷径学习也会降低鲁棒性,即人工智能模型无法掌握数据中的潜在概念,只学习表面特征. 因此, 例如, 图像分类模型可能在大多数情况下正确地对对象进行分类, 但如果它以一种不寻常的方式呈现,就不会, 比如上下颠倒. 与基于规则的系统相比,验证人工智能模型更加困难. 增强人工智能模型的鲁棒性可以通过在不同场景下的彻底测试和随后对模型性能漂移的监测来完成. 除了, 首先在代表性数据上训练模型有助于使其更加健壮.

风险评估

Explainability, 公平, 和鲁棒性只是人工智能系统所需的一些特征. 要全面评估特定于人工智能的风险概况,还需要解决更多问题. 为了避免盲点,Eraneos审计人工智能框架(图1)可以应用. 这个框架是基于审核人工智能用例和研究人工智能失败的经验. 它区分了使用AI系统的组织的视角和特定用例的视角. 根据框架确定的风险评估问题和风险缓解措施, 可以评估系统整个生命周期中的治理和特定于ai的风险领域.

图1-Eraneos AuditingAI框架

数据隐私和数据安全的区别

与经典IT框架相比, Eraneos AuditingAI框架是为AI量身定制的,具有相当的探索性. 对于许多已定义的特征,如可解释性和健壮性, 没有既定的控制措施. 新的人工智能模型可能会出现新的需求,在这种情况下,框架将不得不进行调整. 例如,关于ChatGPT的真实性一直存在争论.7 尽管该框架可以应用于任何人工智能模型, 重要的是要考虑到,根据模型的类型,一些特定于用例的风险区域比其他风险区域更相关. 例如, 对于线性回归模型,可解释性可以很容易地解决, 但对于基于深度学习模型的语音识别系统(如.e.(非常复杂的模型),更难处理. 在这方面, 在进行审计之前,对任何人工智能系统进行风险评估并确定相关风险领域至关重要.

结论

随着人工智能模型变得越来越复杂,越来越广泛地应用于各个行业, 风险缓解战略需要不断调整. 现在,重要的是要记住:

  • 随着人工智能正在扰乱日常生活和工作,监管也在进行中, 现在是准备进行风险评估和减轻风险的时候了.
  • 人工智能的风险特征与传统的基于规则的软件不同. 特别是在人工智能系统中,可解释性、公平性和稳健性是必要的.
  • 为了避免风险评估中的盲点,可以使用探索性框架.

尾注

1 OpenAI。”引入ChatGPT, 2022年11月30日
2 欧盟理事会,”运输、电讯及能源局(电讯), 2022年12月6日
3 IBM研究院信任人工智能。”AI可解释性360
4 InterpretML
5 Kayser-Bril N.; “奥地利职业介绍所推出歧视性算法,认为没有问题《澳门赌场官方软件》,2019年10月6日
6 OpenAI。”人工神经网络中的多模态神经元, 2021年3月4日
7 Sobieszek,.; T. Price; “用人工智能玩游戏:GPT-3和类似的大型语言模型的局限性,” 思维与机器,卷. 32岁的空间站. 2, p. 341–364

贝琳达穆勒

她是Eraneos Group的顾问,为客户提供可信赖的人工智能(AI)方面的建议。. 她有语言学的背景, 认知科学与统计学, 从而更好地理解人工智能的机制及其对社会的影响. 因为她曾在ELCA Informatik AG担任数据科学家, 米勒将机器学习和数据分析方面的实践经验带入了她的咨询工作. 也, 她经常在活动和会议上发言, 分享她在负责任地使用人工智能方面的经验.