近日,美國(guó)一家頗具聲望的個(gè)人傷害律師事務(wù)所Morgan & Morgan向其龐大的律師團(tuán)隊(duì)發(fā)出了緊急警示。這封郵件的內(nèi)容直指一個(gè)新興的技術(shù)風(fēng)險(xiǎn):人工智能(AI)能夠創(chuàng)造出虛假的判例信息。若律師在法庭文件中不慎使用了這些虛假內(nèi)容,將面臨被解雇的嚴(yán)重后果。
這一警告的背景是,懷俄明州的一名聯(lián)邦法官曾對(duì)Morgan & Morgan的兩名律師提出制裁威脅。原因在于,他們?cè)谄鹪V沃爾瑪?shù)囊黄鸢讣?,錯(cuò)誤地引用了并不存在的判例。其中一名律師后來承認(rèn),他使用了一款能夠“創(chuàng)造”案件的AI程序,并為此表示歉意。
據(jù)路透社的調(diào)查,全美多個(gè)法院在過去兩年內(nèi)已對(duì)至少七起案件中的律師進(jìn)行了質(zhì)疑或紀(jì)律處分,原因都與AI在法律文件中生成虛假信息有關(guān)。這一趨勢(shì)給訴訟雙方和法官都帶來了不小的困擾。
然而,盡管存在這樣的風(fēng)險(xiǎn),許多律師事務(wù)所仍然選擇與AI供應(yīng)商合作,或自行開發(fā)AI工具,以縮短律師的研究和撰寫時(shí)間。湯森路透的調(diào)查數(shù)據(jù)顯示,去年有63%的律師在工作中使用了AI,其中12%的律師更是定期使用。
但問題在于,生成式AI以“自信地編造事實(shí)”而聞名。法律專家指出,律師在使用AI時(shí)必須格外謹(jǐn)慎。AI有時(shí)會(huì)像產(chǎn)生“幻覺”一樣生成虛假信息,這是因?yàn)樗鼈兪腔趶拇罅繑?shù)據(jù)中學(xué)習(xí)到的統(tǒng)計(jì)模式進(jìn)行生成的,而不是通過驗(yàn)證事實(shí)的準(zhǔn)確性。
律師道德規(guī)范要求律師對(duì)其提交的法庭文件負(fù)責(zé),并進(jìn)行核實(shí)。美國(guó)律師協(xié)會(huì)去年曾向全體會(huì)員發(fā)出通知,即使是AI生成的“無意錯(cuò)誤”,也必須遵守這一義務(wù)。薩福克大學(xué)法學(xué)院院長(zhǎng)Andrew Perlman對(duì)此表示:“盡管法律研究工具發(fā)生了變化,但后果并沒有改變。當(dāng)律師在沒有核實(shí)的情況下使用ChatGPT或任何生成式AI工具來編造引用時(shí),這就是不稱職。”
Perlman不僅是這一觀點(diǎn)的倡導(dǎo)者,還是利用AI提升法律工作效率的專家。他強(qiáng)調(diào),律師在使用AI時(shí),必須保持高度的警覺性和責(zé)任感,以確保法庭文件的真實(shí)性和準(zhǔn)確性。
Perlman還建議,律師事務(wù)所應(yīng)加強(qiáng)對(duì)律師的培訓(xùn)和指導(dǎo),提高他們對(duì)AI技術(shù)的認(rèn)知和使用能力,以避免因技術(shù)風(fēng)險(xiǎn)而引發(fā)的法律糾紛和職業(yè)道德問題。