
从电信到道路交通,从医疗保健到工作场所,数字技术现在几乎是生活的每个领域的固有部分。然而,我们如何确保这一领域的发展,尤其是那些依赖人工智能(AI)的发展,能够满足我们在伦理、法律和技术方面的所有关切?在项目领导的弗劳恩霍夫研究所智能分析和信息系统公司,和德国联邦信息安全办公室的参与(BSI),一个跨学科的团队来自波恩大学的科学家和科隆拟定检查目录的认证AI的应用程序。他们现在已经发表了一份白皮书,介绍所涉及的哲学、伦理、法律和技术问题。
人工智能正在从根本上改变我们的社会、经济和日常生活。通过这样做,它为我们如何共同生活和工作创造了一些令人兴奋的机会。例如,它已经帮助医生更好地评估x光,这往往导致更准确的诊断。它是聊天机器人的基础,可以为寻求保险等建议的人提供有用的答案。不久,它将使汽车变得越来越自动化。目前的预测表明,人工智能应用的数量将在未来几年呈指数增长。例如,麦肯锡预计,到2030年,全球人工智能的增长将达到130亿美元。
与此同时,很明显,我们需要确保我们对人工智能的使用及其带来的机遇与我们社会的观点和价值观保持一致。在Kompetenzplattform KI的庇护下行动。NRW是北莱茵-威斯特伐利亚州的一个人工智能能力平台,一个跨学科的团队共同开发了一个人工智能应用程序的认证流程,由认证的审查员执行。这将确认符合认证的质量标准,从而使技术公司能够验证地设计出技术上可靠、道德上可接受的人工智能应用程序。
”认证的目的是帮助建立人工智能在欧洲质量标准,以确保一个负责任的方法,这种技术在不同的主体之间,促进公平竞争,”斯蒂芬博士教授说“主任弗劳恩霍夫iai和波恩大学的计算机科学教授。
关注人的方面
人工智能有潜力扩大我们的能力,并为我们提供新的知识。然而,一旦我们开始将我们的决策建立在完全或部分自动化的机器学习之上,我们将面临许多新的挑战。这种应用的技术可行性是一个考虑因素。然而,我们首先必须解决基本的哲学、伦理和法律问题。为了确保人们的需求牢牢地嵌入到这一技术发展的中心,信息技术、哲学和法律领域之间的密切对话是必要的。
专家小组现在已经发表了一份白皮书,其中详细介绍了他们在认证过程中采用的跨学科方法。例如,它们解释了所涉及的伦理原则。波恩大学(University of Bonn)哲学教授马库斯·加布里埃尔(Markus Gabriel)教授表示:“任何使用人工智能的人都应该能够根据自己的道德信念正确行事,任何人的权利、自由或自主权都不应该受到限制。”法律问题也得到解决。科隆大学(University of Cologne)法学教授弗劳克•罗斯塔斯基(Frauke Rostalski)解释称:“例如,我们需要确定如何使人工智能应用符合法治国家的基本价值观和原则,并遵循自由原则。”
在使用人工智能方面建立信任的优先事项
这种跨学科的方法已经确定了一些与人工智能使用相关的伦理、法律和技术问题。这些都在白皮书中进行了检验。认证过程中使用的标准应包括公平、透明、自主、控制、数据保护、安全、安全和可靠性。因此,欧盟的建议也是KI的方向。北威州认证项目。
认证过程将围绕以下问题展开:人工智能应用程序是否尊重法律和社会价值观?用户是否保留对应用程序的完全和有效的自治?申请是否公平对待所有参加者?应用程序的功能和决策是否以透明和可理解的方式进行?应用程序可靠且健壮吗?它对攻击、事故和错误安全吗?应用程序是否保护私有域和其他敏感信息?
在设计阶段进行检查和控制
根据白皮书,必须在最初的设计过程中确定应用程序是否在道德上和法律上被允许,如果是的话,必须制定哪些检查和控制来管理这个过程。一个必要的标准是,确保应用程序的使用不会损害任何使用它的人做出道德决策的能力(就像存在拒绝使用人工智能的选项一样),而且他们的权利和自由不会以任何方式受到限制。
透明度是另一个重要的标准:专家强调,关于正确使用应用程序的信息应随时提供,通过在应用程序中使用人工智能确定的结果必须由用户完全可解释、可追溯和可复制。相互冲突的利益,如透明度和不披露商业机密,必须相互平衡。
该计划是在2020年初发布初步版本的检查目录,然后开始认证的人工智能应用。该项目还包括德国联邦信息安全办公室(BSI)的参与,该办公室在制定安全IT标准方面具有丰富的经验。这种专门知识将用于认证过程。最后,考虑到人工智能的不断发展,检查目录本身将是一个需要不断更新的“活文档”。
推荐阅读
Enjoy
| 留言与评论(共有 0 条评论) |