人工智能系统应支持客观理性思考 通过视觉方面发挥其核心潜力

原创不易 请随手点击关注

本文由Rehoo团队Tin原创,无授权禁转!(图片来自网络)

(图片来自网络

在大数据时代和人工智能的发展时代,社交基础设施促进了数字参与。数字时代宣传越来越多的用户参与与机构和服务的互动,确保由AI驱动的数字工具做出的决策反映了人类的价值观。 逐渐沉浸在自动化中,我们做出的许多选择包括某种形式的计算模型化过程。从手动到编程行为的这种转变已经开始,引入推荐系统以根据用户的偏好找到类似的产品。

然而,今天的人工智能系统不仅仅是强加建议,而且非常了解我们的工作和我们想要的东西。使用“有说服力的计算”和“大推动”,人工智能和自动化引导行动转向更容易接受的行为,导致对现代数字合作愿景缺乏信心。对这种现象的反应不同于“不插电”或仅仅是从自动化系统断开连接到试图与AI共存。由于依赖于我们日常生活中的许多应用,很明显我们已经选择了与自动化共生的路径。

然而,接触数字市场和大量解决方案自然会导致用户在线体验的混乱和怀疑,滥用AI都会为建立值得信赖的人机交互带来额外的技术挑战。此外,在记录,转换和分发数据附形成广泛且易于访问的云以供进一步使用和操纵。为了提高人机共生的质量并遵守数字革命议程的一些基本原则,用户必须承担诚信并信任自动化决策。信任在降低用户与复杂技术交互时面临的认知复杂性方面发挥着重要作用。因此,它的缺席导致AI模型的利用不足或被遗弃。

(图片来自网络

通过使用可解释性作为衡量标准来掌握学习过程,直观地调节信任 。但是,引入人和机器的反馈会增加上述挑战的复杂性。随着可能操纵机器的潜在用户类型的引入,该过程变得更加复杂。来自AI模型的特定领域或技能组合,想法或期望输出,双向用户机器过程的表现因不同用户而异。作为领域专家将AI用于科学目的,每个相互作用用作知识发现过程。那么最终用户对纯输出感兴趣,而且快速且易于使用的产品无疑会产生结果。为了生产高质量的AI模型并增加自动化的使用,最终团队,架构师或系统工程师需要了解自动化的内部流程。

鉴于刚刚提到的所有内容,人机界面中的调解员能够将可解释性作为衡量标准吗?用户必须能够轻松了解AI的性能,以评估其能力。由于不可靠的人机交互,冲突的情况很难得到解决。机器给予可见的努力可以表明它的行为符合用户的利益。通过可视化可以容易地理解自动化系统的这种积极行为,这反过来可以增加信任。随着可视化增强了理解力,它可能会影响复杂系统的感知功能和可靠性。可视化减少了认知信息过载,并提供了对复杂功能的更好洞察。此外,沟通风险有助于提高可信度。

(图片来自网络

视觉语言可以被视为心理“人际”机制与每次互动中的经验因素之间的桥梁元素。设计可用于直接影响信任级别,从而纠正人类操作员滥用和/或废弃AI系统的倾向。适当的信任可以导致自动化系统的性能优于单独的人或AI系统。鉴于透明的沟通对于信任建设至关重要,可视化的使用直接影响人机自动化的改进。

双向学习的潜力可以通过视觉方面发挥其全部潜力,如果模型无法提供理想的结果,则可以直接放置基于视觉的人在环路输入。输入和输出处于相同(可视)空间,并且在两侧都进行有效测量。解释AI模型的内部有助于有效控制并促进对适当的最终用户的公平性,最终用户的兴趣仅仅集中在基于人的解释上。

然而,可视化机器内部过程的各个阶段还不足以让它充分理解。直接设置参数或影响AI模型的训练过程的可能性提供了更高水平的通信,增加了双向学习并促进了信任。在机器学习中使用交互式可视化使得直接和即时输出在学习过程中产生有效的视觉反馈。这样,所有用户类型都可以理解AI模型的操作和性能,为使用不同媒体(移动,桌面,VR / AR)应用的人工智能打开空间。

(图片来自网络

促进人机共生背后的想法不是培训自动化并取代我们的一些活动。“相互”理解需要能够提供良好的输入和信任,使用户能够从人工智能中受益并帮助进行知识发现。目前已朝这个方向采取行动,像Archspike这样的平台正致力于提供定性的人机反馈。该平台“理解”用户的意图以及该“知识”随着时间的推移随着连续的人为输入而变化。用户对在大规模上应用的感兴趣的结果作出反应,否则该结果不能被接收。

另一个实际示例是名为Macaque的平台,它在用户和AI系统之间提供多个同步双向环路。该平台的主要贡献是增加了信任,为运营商提供了轻松理解和单独管理复杂模块的机会。Macaque通过同时使用人类和AI能力来提高自我性能。操作员选择方法,自动完成评估,并且机器根据最终用户与系统的交互来跟踪最终用户的反应。随着时间的推移,运营商会根据多个同步的最终用户输入获得监管并减少偏差。

未来的环境及其活力将取决于使用智能应用程序和“系统思考”的能力。人工智能开发人员必须了解自动化系统的工作方式,以便开发有效的反馈并提高模型性能。需要将多个同步或不同步的信息流集成到有效的双向循环中。

(图片来自网络

每个过程的核心方面是人类认知功能及其使用自动化的进一步发展。人工智能系统应支持客观理性思考,吸引和激励用户,而不是强加推荐。通过使用反馈循环,我们可以测量我们的交互的积极和消极的副作用,并通过自组织来实现结果。可视化对于提供有关变更如何影响AI模型的见解至关重要,并且应该在学习过程的任何阶段使用。为了理解如何将有效的反馈循环应用到有效的人机交互中,我们需要分解问题并理解AI对人们的影响,而不是人们对自动化过程的影响。

(此处已添加圈子卡片,请到今日头条客户端查看)
发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();