AIPress.com.cn报道4月16日消息,据路透社报道,美国法律界近期对生成式人工智能的使用发出更为明确的风险警示。多家律师事务所提醒客户,在涉及法律责任或刑事风险时,不应将AI聊天工具视为具备保密义务的沟通对象,否则相关对话内容可能在诉讼中被调取并作为证据使用。
这一警示源于一项具有标志性的司法裁决。2026年初,纽约联邦地区法院法官Jed Rakoff在一起证券欺诈案件中裁定,被告与AI工具的对话不受“律师—当事人保密特权”保护,需向检方提交相关内容。该裁决明确指出,用户与AI平台之间不存在、也不可能形成法律意义上的律师关系。
涉案被告曾使用Claude整理案件材料,并试图以涉及律师沟通为由拒绝披露。但法院认为,AI平台并非法律代理人,将律师建议输入第三方系统,反而可能破坏原本受保护的信息属性。最终,法院要求其提交31份由AI生成的相关文件。
这一判例迅速引发行业连锁反应。包括ChatGPT和Claude在内的主流AI工具,被普遍视为“第三方平台”,其对话记录在特定条件下可能被执法机构或诉讼对手依法调取。多家美国大型律所已在客户通知、合同条款中明确提示:向AI披露法律意见或案件信息,可能导致保密特权失效。
部分律所还建议,在确需使用AI辅助法律研究时,应由律师主导,并在提示词中明确说明该行为是在法律顾问指导下进行,以降低潜在风险。同时,也有观点认为,企业内部部署的“封闭式AI系统”或许能提供更高的数据保护,但相关法律边界仍未完全明确。
值得注意的是,美国不同法院对类似问题的态度并不完全一致。在另一案件中,密歇根州一名联邦法官曾裁定,当事人自行使用AI生成的内容可被视为“个人工作成果”(work product),不必强制披露。但整体来看,司法实践仍在快速演变阶段。(AI普瑞斯编译)










