Верховный суд со скандалом пересмотрел дело с выдуманными ИИ цитатами
Старший юрист в Австралии извинился перед судьёй за то, что в материалах дела об убийстве были поддельные цитаты и несуществующие судебные решения, сгенерированные искусственным интеллектом. Ошибка в Верховном суде штата Виктория — ещё одна в череде промахов которые ИИ допустил в системах правосудия по всему миру, сообщает ABCNews.Адвокат защиты Риши Натвани, имеющий престижный юридический статус королевского адвоката, взял на себя "полную ответственность" за предоставление неверной информации в материалах дела подростка, обвиняемого в убийстве."Мы глубоко сожалеем о случившемся и испытываем неловкость", — заявил Натвани судье Джеймсу Эллиоту в среду от имени команды защиты.Ошибки, допущенные искусственным интеллектом, привели к 24-часовой задержке в рассмотрении дела, которое Эллиотт надеялся завершить в среду. В четверг Эллиотт постановил, что клиент Натвани, имя которого не разглашается в связи с его несовершеннолетием, не виновен в убийстве из-за психического расстройства."Рискуя преуменьшить значение, скажу, что ход этих событий неудовлетворителен", — заявил Эллиотт юристам в четверг. Добавив, что способность суда полагаться на точность сведений, предоставленных адвокатом, является основополагающей для надлежащего отправления правосудия.Фальшивые документы содержали сфабрикованные цитаты из выступления перед законодательным собранием штата и несуществующие ссылки на решения Верховного суда. Ошибки обнаружили коллеги Эллиота, которые не смогли найти дела и попросили адвокатов защиты предоставить им копии. Адвокаты же признали, что цитат "не существует" и что в заявлении содержатся "вымышленные цитаты", говорится в судебных документах.Материалы также были направлены прокурору Даниэлю Порседду, который тоже не проверил их достоверность. Судья отметил, что в прошлом году Верховный суд опубликовал рекомендации по использованию ИИ юристами."Использование искусственного интеллекта недопустимо, если результат его применения не проходит независимую и тщательную проверку", — заявил Эллиотт.В судебных документах не указано, какую систему генеративного искусственного интеллекта использовали адвокаты. В аналогичном случае в США в 2023 году федеральный судья наложил штраф в размере 5000 долларов на двух юристов и юридическую фирму после того, как ChatGPT обвинили в предоставлении фиктивных юридических исследований по иску о причинении вреда здоровью в результате авиакатастрофы.Ранее сообщалось, что созданный для флирта ИИ убедил пенсионера с психическим расстройством отправиться в другой город, что закончилось трагедией.