Зображення користувача Олена Каганець.
Олена Каганець
  • Відвідувань: 0
  • Переглядів: 0

Юрист використовував ChatGPT і тепер повинен відповісти за його фальшиві цитати

Категорія:

Адвокати, які судяться з колумбійською авіакомпанією Avianca, подали до суду справу, у якій було повно вигаданих ChatGPT попередніх справ. Адвокат протилежної сторони вказав на неіснуючі справи.

23052901.jpg

Ілюстративне фото
Ілюстативне фото

Окружний суддя США Кевін Кастель підтвердив, що "шість з поданих справ виглядають як фальшиві судові рішення з фальшивими цитатами й фальшивими внутрішніми посиланнями", і призначив слухання, під час якого він розглядає питання про санкції для адвокатів позивача, пише The Verge, посилаючись на The New York Times.

Адвокат Стівен Шварц визнав під присягою, що використовував чат-бот OpenAI для своїх розслідувань. Для перевірки кейсів він зробив єдину розумну річ: запитав чат-бот, чи не бреше він.

Коли він попросив вказати джерело, ChatGPT вибачився за попередню плутанину і наполягав на тому, що справа була справжньою, заявивши, що її можна знайти на сайтах Westlaw і LexisNexis. Задоволений, він запитав, чи були інші справи фальшивими, і ChatGPT стверджував, що всі вони були справжніми.

Адвокат протилежної сторони ознайомив суд з цією проблемою в найдрібніших подробицях, розповівши про те, що подання адвокатів "Левидов, Левидов і Оберман" було повним брехні. В одному з прикладів, у неіснуючій справі під назвою Varghese v. China Southern Airlines Co., Ltd., чат-бот посилався, схоже, на іншу реальну справу, Zicherman v. Korean Air Lines Co., Ltd., але помилився з датою (та іншими деталями), заявивши, що рішення було прийнято через 12 років після початкового рішення 1996 року.

Шварц каже, що він "не знав про можливість того, що його зміст може бути неправдивим". Тепер він "дуже шкодує про те, що використав генеративний штучний інтелект для доповнення правового розслідування і ніколи не робитиме цього в майбутньому без абсолютної перевірки його автентичності".

Шварц не допущений до практики в Південному окрузі Нью-Йорка, але перед цим, тобто до того, як його направили до цього суду, він подав позов, і каже, що продовжує працювати над ним. Інший адвокат тієї ж фірми, Пітер Лодука, став офіційним представником у цій справі, і йому доведеться постати перед суддею, щоб пояснити, що саме сталося.

Це ще раз підкреслює абсурдність використання чат-ботів для розслідувань без подвійної (або потрійної) перевірки їхніх джерел будь-де.

Дебют Bing від Microsoft сумнозвісно асоціюється з відвертою брехнею, газлайтінгом (gaslighting) та емоційними маніпуляціями.

Бард, чат-бот зі штучним інтелектом від Google, у своїй першій демонстраційній версії вигадав факт про космічний телескоп Джеймса Вебба. Bing навіть збрехав про те, що Бард був вимкнений у кумедному прикладі в березні цього року.

Вміння імітувати зразки письмової мови, щоб підтримувати атмосферу непохитної впевненості, мало чого варте, якщо ви навіть не можете з'ясувати, скільки разів буква "е" зустрічається в кетчупі.

Так чи інакше, а суддя вказав на те, що адвокатська заява була суцільним фестивалем брехні.

Наші інтереси: 

Треба бути обережними у використанні технологій ШІ. У медалі завжди є дві сторони.

Якщо ви помітили помилку, то виділіть фрагмент тексту не більше 20 символів і натисніть Ctrl+Enter
Підписуюсь на новини

Зверніть увагу

Творімо разом сонячну мову Сенсар!

Мова Сенсар – головний інструмент заснування нового світу. З чого почнемо формування словника?

Пряма і точна цитата з Гіперборійської інструкції про здобуття керованої молодості є майже в кожній українській родині. Саме з неї починається вчення Ісуса Хреста про перенародження та вічне життя...

Останні записи