МОСКВА, 31 мая – РАПСИ. Адвокату Стивену Шварцу из американской юридической фирмы Levidow, Levidow & Oberman грозят санкции из-за ошибок в брифе дела его клиента, который был составлен с помощью чат-бота с искусственным интеллектом (ИИ).

Вопрос ответственности юриста решится в Федеральном суде Южного округа Нью-Йорка 8 июня, сообщает агентство Reuters.

Ранее Шварц признался, что использовал ChatGPT для краткого изложения иска своего клиента к авиакомпании Avianca Airlines из-за травм, полученных во время полета. Как позднее выяснилось, в брифе упоминалось шесть несуществующих судебных решений.

Адвокат выразил сожаление о том, что полагался на новую технологию, и «не подозревал о возможности того, что ее содержимое может быть ложным», пишет Reuters.

Правила адвокатской этики, установленные Американской ассоциацией юристов, прямо не касаются искусственного интеллекта, однако, по словам экспертов, некоторые из них применяются в этой области.

Так, правило, касающееся вопросов компетентности, требует, чтобы юристы обеспечивали квалифицированное представительство и были в курсе современных веяний: они должны убедиться, что используемая ими технология предоставляет точную информацию, и не должны слишком полагаться на инструменты, чтобы не допустить ошибок.

«Слепо полагаться на генеративный ИИ для получения текста, который вы используете для предоставления услуг своему клиенту, не получится», — приводит агентство слова декана юридического факультета Университета Саффолка, специалиста в сфере юридических технологий и этики Эндрю Перлмана.

Кроме того, обязательство по соблюдению конфиденциальности требует от юристов «прилагать разумные усилия для предотвращения непреднамеренного или несанкционированного раскрытия или доступа к информации, касающейся представительства клиента». 

По мнению экспертов, юристы, использующие такие программы, как ChatGPT или Bing Chat, рискуют предоставить компаниям, занимающимся искусственным интеллектом, данные своих клиентов для обучения и улучшения своих моделей, что может привести к нарушению правил конфиденциальности.

«Это одна из причин, по которой некоторые юридические фирмы запрещают сотрудникам использовать ChatGPT и подобные программы при работе с клиентами», - сказал Reuters партнер Holland & Knight Йозиас Дьюи, участвовавший в разработке внутренних программ искусственного интеллекта в своей фирме.