通过资助 “人工智能道德” 研究,OpenAI 正在涉足复杂的领域。OpenAI 的非营利机构向杜克大学的研究人员提供了一笔资金,用于一个名为 “人工智能道德研究” 的项目(via TechCrunch)。这项工作隶属于一项更大的计划,该计划在三年内提供 100 万美元,用于研究如何让人工智能具有道德意识。
该项目由实践伦理学专业教授沃尔特-辛诺特-阿姆斯特朗(Walter Sinnott-Armstrong)和雅娜-斯凯奇-博格(Jana Schaich Borg)领导。辛诺特-阿姆斯特朗是哲学界的大名人,涉足应用伦理学、道德心理学和神经科学等领域。他在杜克大学的团队致力于解决现实世界中的两难问题,例如设计算法来决定谁应该接受器官移植,权衡公众和专家的观点来完善这些系统的公平性。
这个由 OpenAI 资助的项目旨在创建一种算法,预测人类在医学、法律和商业等领域的道德判断。虽然这听起来很有希望,但历史表明这并非易事。以艾伦人工智能研究所(Allen Institute for AI)的 “德尔菲之问”(Ask Delphi)为例,该项目旨在提供道德答案。虽然它能够解决简单的两难问题,但只需改变问题的措辞,就很容易被诱骗做出道德上可疑的回答。
局限性源于人工智能的运行方式:机器学习模型根据训练数据预测结果,而训练数据往往反映了主流文化的偏见。这一问题引发了人们对人工智能能否真正 “合乎道德 ”的极大担忧,尤其是在不同社会的道德标准各不相同,且缺乏普遍接受的框架的情况下。
人工智能能否以有意义的方式与人类价值观保持一致,甚至是否应该保持一致,仍然是一个悬而未决的问题。但是,如果能做到这一点,其影响将是深远的,它将影响我们在道德决策中如何信任机器。目前,世界可能要等到 2025 年,也就是这项基金结束时,才能知道这个 “道德人工智能” 项目是否取得了突破性进展。