Растущее число неудач, созданных ИИ, обнаруженным в юридических документах, представленных судам, привело адвокатов к наибольшему контролю.
Суды со всей страны санкционировали адвокатов за злоупотребление LLM с открытым исходным кодом, такие как Chatgpt of Openai и Claude de Antrope, которые сформировали «воображаемые» дела, предложили адвокатам изобретать судебные решения для укрепления своих аргументов и предоставили неправильные назначения в юридические документы.
Эксперты говорят Fortune, что возникнет больше этих случаев, и вместе с ними крутые санкции для адвокатов, которые плохо используют ИИ.
Дэмиен Шарлотлин, адвокат и исследователь в Хали Париж, выполняет базу данных о случаях галлюцинации искусственного интеллекта. На сегодняшний день он подсчитал 376 случаев, 244 из которых являются случаями США.
«Вы не можете отрицать, что мы были в экспоненциальной кривой», – сказал он Fortune.
Шарлотин сказал, что адвокаты могут быть особенно склонны к надзору, поскольку люди в своей профессии делегировали задачи в оборудование, часто не читают все материалы, собранные со -работниками и копируют и вставляют цепочки назначений без адекватных методов проверки. Теперь ИИ делает эту практику более очевидной, поскольку адвокаты соответствуют новой технологии.
«У нас есть ситуация, в которой эти (модели с открытым исходным кодом) формируют закон», – сказал Фицпатрик, генеральный директор Lexisnexis North America, Великобритания и Ирландия. «Ставки все более высоки, и это на адвокате».
Например, составление документов, готовых к суду для дел, которые могут включать решения в области покрытия Medicaid, пособия по социальному обеспечению или уголовное преследование, не могут позволить себе ошибки, созданные ИИ, добавил он.
Другие риски
Введите конфиденциальную информацию в модели с открытым исходным кодом, также подвергается риску нарушения привилегии адвоката-клиента.
Фрэнк Эммерт, исполнительный директор Международного и сравнительного юридического центра Университета Индианы и эксперт в области юридического искусственного интеллекта, заявил Fortune, что модели с открытым исходным кодом могут получать привилегированную информацию, которая их использует.
Если кто -то еще это знает, он может изменить инженерный договор между клиентом и адвокатом, например, используя правильные показания.
«Вы не найдете полный контракт, но вы найдете достаточно информации, если загружаете эти контракты», – сказал Эммерт. «Потенциально, вы можете найти имена клиентов … или, по крайней мере, вы знаете, информацию, которая делает клиента идентифицируемым».
Если адвокат поднимается без разрешения, это может стать доступной информацией об общественном поиске, поскольку модели с открытым исходным кодом не защищают привилегию, сказал Фицпатрик.
«Я думаю, что это всего лишь вопрос времени, прежде чем увидеть, как адвокаты теряют свою лицензию на это», – сказал он.
Фицпатрик сказал, что такие модели, как генеративный инструмент его компании Lexis+ AI, который подписал семидесятой контракт в качестве поставщика информации для федеральной судебной системы в марте, могут быть ответом на риски галлюцинаций и конфиденциальности клиентов.
LexisNexis не обучает своего LLM в данных, и признаки наших клиентов зашифрованы. Кроме того, технология «более оснащена» для решения проблем галлюцинации, поскольку она извлекается из «контента контента», или закрытой и запатентованной системы, которая обновляется каждый день, сказал Фицпатрик.
Несмотря на это, Lexisnexis не претендует на то, чтобы сохранить привилегии и признает, что обязательство всегда падает на адвоката, сообщила компания.
Но эксперты говорят, что Fortune AI, используемый в юридических целях по своей природе, поставляется с рисками, с открытым исходным кодом или нет.
Юридическое детство ИИ
Эммерт говорит, что он классифицирует модели на три корзины: инструменты открытого доступа, такие как CHATGPT, внутренние приложения, называемые «моделями малых языков» и «моделями среднего языка», таких как продукт LexisNexis.
По словам Эммерта, страх перед ошибками побудил компании ограничить использование моделей с открытым исходным кодом и вместо этого разработать внутренние приложения, которые в основном являются сервером в компании, где адвокаты несут свои контракты и документы и начинают обучать модель ИИ.
Но по сравнению с большим количеством данных, доступных для моделей с открытым исходным кодом, внутренние приложения всегда будут иметь более низкие ответы, сказал Эммерт.
Он сказал, что модели среднего размера могут быть использованы, чтобы помочь с составлением контракта, проверки документов, оценки доказательств или процедур обнаружения, но все еще ограничены в том, что они могут извлечь по сравнению с открытым Интернетом.
«И вопрос в том, можем ли мы полностью доверять им? … один, что они не галлюцинируют, а во -вторых, что данные действительно остаются привилегированными и частными», – сказал Эммерт.
Он сказал, что если бы он был частью юридической фирмы, он не колеблется нанять этот тип поставщика и потратить много денег на что -то, что все еще находится в его детстве, и в конечном итоге может оказаться действительно полезным.
«Лично я думаю, что эти инструменты искусственного интеллекта фантастические», – сказал Эммерт. «Они действительно могут помочь нам выполнить больше работы на более высоком уровне качества с значительно более низкими инвестициями».
Несмотря на это, он предупредил, что индустрия находится в новую эру, которая требует ускоренного образования в чем -то, что было принято быстро, не будучи полностью понятым.
«Начиная с академии, но, продолжая в профессии, нам нужно обучать всех адвокатов, каждого судьи, чтобы стать учителями искусственного интеллекта, не в техническом смысле, но использовать его», – сказал Эммерт. «На самом деле есть задача».

