ChatGPT引发的AI监管问题思考与建议(2)
时间:2023-03-12 02:00 来源:网络整理 作者:默认发布 点击:次
二是个人数据隐私方面,在与ChatGPT聊天的过程中,ChatGPT通过用户输入的信息,收集和分析用户的语言数据,这些语言数据包含用户的兴趣爱好、思想倾向、生活习惯等隐私信息。如果这些信息被不当使用或泄露,将会对用户的隐私造成严重威胁。同时,ChatGPT使用了RLHF的训练方法,这意味着用户使用过程中的交互信息可能会用于其持续迭代训练,因此用户的输入信息可能被用于为其他用户提供服务,构成不合规的数据共享问题。 三是ChatGPT的自然语言生成功能可以被用于创建钓鱼邮件。ChatGPT可以非常真实流畅的模仿人类写作,且基本没有拼写和语法错误。黑客可以利用ChatGPT的这一特点来创建伪造的网站、邮件和消息,模拟真实的企业或机构,从而诱骗用户提供敏感信息。安全机构Check Point Research在近期发表的报告中表示已经在地下论坛发现有黑客试图绕过限制将ChatGPT用于生成钓鱼邮件等内容的行为。 四是ChatGPT降低了恶意软件的开发门槛。借助ChatGPT,黑客甚至不需要编码就可以生成一个恶意软件的数十万次迭代。ChatGPT极大地降低了黑客的技术能力门槛,从一定程度上加速恶意软件的开发,提高漏洞利用的可能性和速度。据报道,美国网络安全公司Recorded Future在暗网的不同论坛中,发现了15000多份以ChatGPT为基础,解释如何开发相应的恶意软件的参考资料。 五是ChatGPT提高了网络防御的难度。借助ChatGPT,黑客能够能开发出安全人员极难识别的恶意软件,提高网络攻击的有效性。CyberArk的研究结果显示,ChatGPT可以生成多态恶意软件,同时可用于以高级方式帮助恶意软件程序开发,包括利用开源存储库中发现的恶意软件代码训练ChatGPT,以生成该代码的独特变体,从而逃避反病毒检测机制。 六是ChatGPT增加了身份盗用风险。不法分子可以利用ChatGPT强大的类人说话和行为方式模仿、自然语言编写能力,冒充真实的人或者组织骗取他人信息、实施身份盗用等,进一步助长网络诈骗等违法犯罪行为的发生。 2. 版权保护问题 ChatGPT主要依赖现有素材,可能产生版权纠纷问题,同时生成内容版权的认定也存在争议。ChatGPT可以被用来生成各种类型的文本内容,如论文、小说等,其中包括受到著作权法保护的作品。然而,如果这些内容没有经过权利主体的授权就被使用或传播,极可能侵害他人的著作权。目前ChatGPT已经遭到了教育系统不同程度的“封杀”,多国学生被禁止使用ChatGPT,一些期刊不接受任何大型语言模型工具单独或联合署名。香港大学向其师生发出内部邮件,表明禁止在港大所有课堂、作业和评估中使用ChatGPT或其他AI工具,否则将被校方视为剽窃。《暨南学报(哲学社会科学版)》在关于使用人工智能写作工具的说明提到,暂不接受ChatGPT等任何大型语言模型工具单独或联合署名的文章。 二、“强”人工智能引发的新风险 ChatGPT虽然还称不上是“强人工智能”,其具有强大的主动理解和内容生产能力,将会给社会带来违法违规、社会规范失序和伦理道德新风险。 一是ChatGPT可能会出现无法预测的行为,甚至可能与人类的价值观相违背。据外媒报道,一位名叫扎克·德纳姆(Zac Denham)的博主曾尝试让ChatGPT写出了一套毁灭人类的方案,最终给出了步骤细节,包括入侵各国计算机系统、控制武器、破坏通信和交通系统等,甚至生成了相应的代码。
图1 ChatGPT聊天对话截图 二是ChatGPT可能形成“错误权威”,存在误导大众的嫌疑,在回答非公开内容或抽象概念时,ChatGPT提供的答案看起来十分具有逻辑性但无法提供信息来源和渠道,难以判断其内容准确性。近期,杭州某小区业主尝试用ChatGPT撰写杭州取消限行的新闻稿,并把ChatGPT编造的不实新闻在微信群中传播,造成了一定的不良社会影响。 (责任编辑:admin) |
- 上一篇:黑客通过手机号查身份证号码,磁力链接
- 下一篇:跟黑客有关的策略游戏(一款黑客游戏)
