网络安全检测|网络安全服务|网络安全扫描-香港墨客投资移动版

主页 > 业界资讯 > 网络渗透测试

与机器共情:将人类意图与智能工具相结合(2)

从行为学的角度而言,ChatGPT在不理解语义学、篇章学的情况下完成人类交由的任务并影响着今天世界的运行方式。在任何涉及文本生产的行业中——法律、医药、科技等——海量的文本都能以“立竿见影”的速度进行创建。纵然,人工智能文本生成器能够产生惊人的创造性和类似人类情感的结果,但它们无法从根本上理解其所生成的词汇、句子、文本的含义,因为这些经过强化学习训练的文本在本质上由算法和概率驱动。聊天机器人擅长建立书目,擅长创作小说,然而它们不具备真正的人类意识,不具备任何感觉或思想,因而无法实现真正的创造力与洞察力。为了在真正意义上提高其洞察力和新颖性,聊天机器人还需要从语义角度对文本内容有更深层次的把握和更透彻的理解,而现有一代ChatGPT还无法实现这一点。

必须指出的是,在大幅提升读写速度及效率的同时,ChatGPT的广泛使用将带来许多可预测和不可预测的负面影响。正如工业革命在深刻改变人类生产方式的同时,为人类生存环境和日常生活带来诸多危机一样,人工智能工具包括ChatGPT等文本生成器及其衍生产品也将对全球经济产生难以估量的破坏性影响。例如,鉴于ChatGPT在软件工程领域编写代码方面表现出色,其后代衍生产品可能会遵循某些人为设计的指令,利用网络安全弱点进行计算机系统攻击。

在短期内,ChatGPT等聊天机器人通过对话可以极大地增强错误信息生成的力量及扭曲科学事实的可能性。这些聊天机器人可以被设计成友好和值得信赖的对象,这让它们更容易欺骗人类。其他人工智能工具的技能例如AI拟音和视频模仿等也会导致类似后果,这必然会导致混乱、不信任甚至伤害。从长远看,我们可能会认为听到、看到和读到的一切信息都是虚构的,除非它们以某种明确被授权的方式发布。对于应该相信什么应该质疑什么,人们无从知晓答案,更多的人将会对真理和谬误的界限产生怀疑,这会让我们感到十分困惑。

要防范并控制ChatGPT可能带来的风险——尤其是当其技术更为成熟时——需要从管理其访问权限入手。例如,如果用户想控制ChatGPT参与法律程序或医疗护理的可能性,就应该从根源上切断其数据访问权限。OpenAI为ChatGPT创建了一个内容审核系统,以便其内容输出与人类常识和广泛共享的人类价值观相一致。然而,黑客们一直在试图破解系统漏洞以绕过内容审核限制,且在实践中取得了成功。OpenAI一直在试图阻止这些黑客行为,然而依旧会有很多聊天机器人未经过任何内容审核,其言论能否受到有效监管还有待观察。某种程度上,这是一个全球性问题而非某一国的问题,毕竟ChatGPT已经支持大约100余种语言和多种编程语言,且在全球大多数国家都可以使用。

与机器共情并产生心理联结

当然,人类无须担心《黑客帝国》电影中那样超越人类并奴役人类的“有意识的机器”出现。ChatGPT等聊天机器人将作为一种无意识的超级智能机器而存在,它们在不理解人类给出指令的背景信息的情况下,严格遵照人类指示去完成任务,却永远无法获得人类独有的智慧、创造力和主观意识。

在利用这些机器辅助思考并处理人类自身无法完成的事务的同时,人类应当用自己的声音和身体学会巧妙地质疑和控制它们,让其为人类自身所用。我们所需要掌握的一项重要技能,就是让人工智能的任务目标与人类的认知需求相一致。实现这种一致性,并将人类意图与智能工具结合起来的能力在未来颇为重要——与机器进行共情并产生心理联结是人类必须学习的一种全新技能。在不远的将来,人们知道如何用智能机器把文字写得优美而清晰,就像知道如何靠星星导航,如何用工具生火,如何用树干刻独木舟,或者如何为孩子们吟诵古老的童谣一样将成为简单日常生活的一部分。

作者系美国波士顿大学哲学、神学与伦理学教授兼计算与数据科学学院教授

韦斯利·J. 怀尔德曼(Wesley J.Wildman)/文 白乐/译

原标题:《【解码ChatGPT⑬】韦斯利·J. 怀尔德曼 | 与机器共情:将人类意图与智能工具相结合》

(责任编辑:admin)