2023年5月,Gartner发布了法律和合规领导者必须评估的六个ChatGPT风险。Gartner认为,法律和合规领导者应解决其组织面临的六种特定ChatGPT风险的问题,并确定建立哪些护栏以确保企业能够负责任地使用生成型人工智能工具。
Gartner高级总监分析师Ron Friedmann表示:“ChatGPT和其他大型语言模型(LLM)工具生成的输出容易受到多种风险的影响。法律和合规领导者应评估这些问题是否对其企业构成了实质性的风险,以及需要什么控制措施,包括企业内部和第三方及第n方扩展企业。如果不这样做,企业可能将会面临法律、声誉和财务方面的后果。”
ChatGPT和其他语言模型工具最常见的问题之一是倾向于提供错误的信息,尽管这些信息在表面上看起来是合理的。ChatGPT还容易“产生幻觉”,包括编造错误答案和不存在的法律或科学引用。
法律和合规负责人应意识到,如果未禁用聊天历史记录,那么输入到ChatGPT中的任何信息都可能成为其训练数据集的一部分。如果敏感、专有或保密信息用于提示,它们则可能会被纳入到面向企业外部用户的响应中。
尽管OpenAI已经在努力减少ChatGPT中的偏见和歧视,但这些问题已经发生了。尽管OpenAI和其他人正在积极努力减少这些风险,但它们仍然可能持续存在。
ChatGPT是基于大量互联网数据进行训练,这些数据很可能包含受版权保护的材料。因此,它的输出有可能侵犯版权或知识产权保护。法律和合规负责人应密切关注适用于ChatGPT输出的版权法的任何变化,并要求用户仔细检查他们生成的任何输出,以确保不侵犯版权或知识产权。
恶意行为者已经开始滥用ChatGPT以大规模生成虚假信息(例如伪造评论)。此外,使用语言模型的应用程序,包括ChatGPT,也容易受到提示注入的攻击技术的影响,这种技术利用恶意对抗性提示来欺骗模型执行不应执行的任务,例如编写恶意软件代码或开发类似知名网站的网络钓鱼站点。
未向消费者披露ChatGPT的使用情况(例如作为客户支持聊天机器人)的企业,会面临失去客户的信任并被指控违反各种法律的风险。
文章译自:https://www.gartner.com/en/newsroom/press-releases/2023-05-18-gartner-identifies-six-chatgpt-risks-legal-and-compliance-must-evaluate
人工智能生成内容(Artificial Intelligence Generates Content ,AIGC)发展迅猛,Gartner已经向法律和合规负责人提示了六大必须评估ChatGPT风险,其中的数据隐私和保密性、知识产权和版权风险、网络欺诈风险等问题不容小觑,那么在实际工作中,究竟该如何评估呢?