根據《BBC》28日報導,一位男子原想對哥倫比亞航空提出人身傷害罪,然而當他的法律團隊提交宣誓書,試圖引述過去的案件,說服法官推進自身案件進度時,卻遭無情打臉。原來,航空公司的法律團隊表示,幾起報告書中的提及的判例,無論他們如何搜索,都找不到相關資料。
對此,法官卡斯特(Judge Castel)在一份命令中寫道 :「有六個案件疑似含有虛假的引述與引用,看起來是偽造的判決。」並要求原告的法律團隊給予解釋。原告律師洛杜卡(Peter LoDuca)聽聞後一臉茫然,因為他並未直接參與此次案件的法律研究,而是將工作交付給了從業近30年的資深同事施瓦茨(Steven A Schwartz)。
當檢方後續循線問到施瓦茨時,果不其然,他坦承自己確實經由ChatGPT來搜尋相關案例,不過在感到後悔的同時,施瓦茨也掛保證,他先前從未用過AI做法律研究、未來同樣不會再犯。有趣的是,從報告中附上的聊天紀錄可以發現,其實施瓦茨曾反覆詢問ChatGPT,這些「無中生有」的案例是否為真,當時AI竟「睜眼說瞎話」地回覆,可以在LexisNexis和Westlaw等法律資料庫找到。
ChatGPT推出不到一年,已經被活用在日常生活中的方方面面,它不僅能夠模仿人類的語言架構回答問題,還能依據使用者的指令,生成相對應的文字內容,看似方便的同時,卻也容易成為散布假消息的工具。