网络安全检测|网络安全服务|网络安全扫描-香港墨客投资移动版

主页 > 业界资讯 > 网络渗透测试

ChatGPT引发的AI监管问题思考与建议

ChatGPT3.5 推动AI从被动执行指令进入主动理解和生成的新发展阶段,似乎让我们看到了从“弱人工智能”跨向“强人工智能”的曙光,AI奇点时刻近在眼前。面临AI新纪元,全球科技巨头纷纷布局,积极拥抱新的智能时代。然而,如同曾经的互联网时代一样,此时的AI时代同样面临着诸多风险,包括数据隐私和安全、版权保护等风险。特别是进入强人工智能时代,社会伦理道德风险将会更加突出,它可能比我们以前任何一个技术革命时代所面临的风险都强烈和复杂。然而,未来已来,将至已至,以变应变方为上策。建议监管机构以包容审慎的监管理念,在既有监管体系下积极监控新风险,管控固有风险,营造良好的AI产业政策环境,让完善的监管体系助力AI腾飞,在全球高科技竞争中取得领先地位。

ChatGPT3.5 开创AI新纪元,

成为全球性关注热点

ChatGPT拥有强大的语言理解和文本生成能力,能很好地支持聊天对话、代码撰写、文案创作等任务,被称为迄今为止最先进的自然语言处理工具之一。

• CNBC报道,谷歌认为ChatGPT在面试谷歌L3级别工程师的职位时会被成功录用,这代表着ChatGPT 已经拥有了L3级工程师的代码能力。

• 发表在《公共科学图书馆·数字健康》杂志上的一项研究显示,ChatGPT能够在美国医学执照考试(USMLE)中达到或接近60%的通过门槛。

• 360周鸿祎认为ChatGPT是强人工智能的拐点,有可能成为新时代的操作系统,成为数字化的“发电厂”,以SaaS服务的方式接入到千行百业,所有数字化系统和各个行业都值得用ChatGPT重做一遍。

• 雷军认为机器人产业正值升级换代、跨越发展的窗口机遇期,其中仿生人形机器人将有力带动新一代信息技术、高端制造、新能源、新材料等产业集聚发展,成为社会经济发展和国际科技竞争的战略制高点。

• 马斯克认为ChatGPT非常好,我们离危险的强大人工智能不远了,并预测未来AI 人形机器人的数量会超过人类。

• 比尔·盖茨认为ChatGPT和个人电脑、互联网的出现一样重要,人工智能将是这十年中最大的事情,将改变我们的世界,未来人人都将拥有一个 AI助理,科技巨头各自为营提供服务的藩篱将被打破,谷歌占据搜索,亚马逊占据购物,微软占据办公服务,而苹果几乎拥有苹果设备上的一切。但是一旦你有了个人助理,就会把这些独立的市场整合成一个个人助理,它可以在各种设备上帮助我购物、做计划、撰写文件。

全球进入新一轮以AI为核心的科技竞赛,众多大型科技巨头纷纷加大AI布局力度,推出类似ChatGPT的竞品。

• 谷歌基于自己开发的大模型 LaMDA,推出对标 ChatGPT 的对话机器人Bard,参数量最高达 1370 亿,在多个维度接近人类水平。

• 微软表示未来所有产品将全线整合 ChatGPT,目前已推出引入 ChatGPT 技术的搜索引擎 New Bing。

• 百度计划3月将推出聊天机器人“文心一言”(ERNIE Bot),目前生态合作伙伴近300家。

• 京东云旗下言犀人工智能应用平台宣布将推出产业版 ChatGPT:ChatJD。

面对这一波AI躁动,有人将ChatGPT(基于GPT3.5模型)视为又一个“iPhone时刻”,其本质就是一次重要的商业变革。还有人认为ChatGPT这种生成式AI是新的通用技术(GPT—general purpose technology),类比蒸汽、电力、计算机的划时代地位,将会引发新一轮生产力革命。我们认为,ChatGPT会实现多种可能,是人工智能发展史上的划时代产品,它可能助推人工智能跨过 “弱人工智能”进入 “强人工智能”阶段,开创AI新纪元,也许不久的未来,意识上传已经悄然开始,文明延续也许有了新的路径。

ChatGPT作为新生事物

引发诸多风险

ChatGPT作为一款先进的聊天机器人,在为人们带来更便捷的生活和工作方式的同时,也引发了一系列问题。ChatGPT从数据获取、汇聚、加工处理到运算结果输出的全流程中各个环节都存在数据安全及法律风险问题,这些问题包括既包括原有互联网及弱人工智能时代存在的数据隐私和安全、版权保护等问题,也带来强人工智能引发的社会伦理道德新风险。

一、互联网固有的风险

1. 数据隐私和安全风险

ChatGPT强大的功能对黑客具有很大吸引力,不法分子对ChatGPT的恶意利用会带来数据隐私、钓鱼邮件,恶意软件、身份盗用等网信安全问题。

一是在企业数据隐私方面,企业员工在使用ChatGPT辅助工作时,可能会泄露敏感数据、商业秘密甚至是机密信息,而数据一旦输入,就会被收集和使用,不能删除和修改,导致ChatGPT可能会获取到企业从未公开披露的机密。亚马逊的公司律师称,他们在ChatGPT生成的内容中发现了与公司机密“非常相似”的文本,可能是由于员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息。埃森哲、微软、摩根大通等企业已警告其员工不要与ChatGPT等聊天机器人分享机密信息。

(责任编辑:admin)