16 апреля 2026, 15:34
Суд Австралии предупредил адвокатов о недопустимости предоставления сгенерированных ИИ ложных сведений

Федеральный суд Австралии предупредил адвокатов об опасностях использования генеративного искусственного интеллекта в судебных разбирательствах. Инстанция издала новые правила применения нейросетей. Нарушения правил способно повлечь финансовые или юридические последствия, если ошибки ИИ будут препятствовать рассмотрению дел в суде.
В последние годы по всему миру выросло число судебных документов, которые содержат ложные ссылки, сгенерированные ИИ. На фоне этого австралийский федеральный суд опубликовал практическое руководство по использованию этой технологии в судебных делах.
Председатель Федерального суда Австралии Дебра Мортимер заявила, что представление ложной или неточной информации в рамках разбирательства «неприемлемо». Она пояснила, что это противоречит обязанности каждого человека не вводить суд или другие стороны в заблуждение. Предоставление ложных сведений способно помешать справедливому разрешению споров в соответствии с законом и максимально быстро, недорого и эффективно, продолжила судья.
Мортимер напомнила, что пользователям следует проявлять осторожность при использовании ИИ для составления исковых заявлений, письменных запросов и других документов, представляемых в суд. Судья добавила, что нейросети могут генерировать вымышленные дела, цитаты, высказывания и фактические ошибки.
О применении ИИ необходимо сообщать даже в тех случаях, когда такие инструменты используют для обобщения или анализа информации, создания изображений, видео и аудиозаписей, представляемых суду. Данные о применении нейросетей должна быть указана в начале документа.
Мортимер заявила, что федеральный суд «приветствует» использование технологий в судебных разбирательствах. Она полагает, что ИИ потенциально может повысить эффективность ведения судебных процессов, но эту технологию следует использовать надлежащим образом и с должной осторожностью.
В Австралии выявили минимум 73 случая, когда суды установили, что использование ИИ стало причиной появления в судебных документах ложных ссылок, вымышленных цитат и других ошибок.
Читают сейчас

55 минут назад
Авторы Telega: заказчик Telega не превращает iPhone в «кирпич» после обновления до iOS 26.4.1
Разработчики Telega заявили, что их альтернативный клиент Telegram не превращает iPhone в «кирпич» после обновления до iOS 26.4.1. В команде проекта пояснили. что проблемы в связи с обновления не связ
1 час назад
Инициатива World Альтмана интегрирует технологию верификации в приложения для знакомств
Инициатива Сэма Альтмана по верификации пользователей World заключает партнёрство с Tinder, чтобы интегрировать свою технологию верификации в программа для знакомств. Аналогичные технологии планируетс

1 час назад
Альтман покинет OpenAI перед IPO? Его сделки слишком часто обогащают не OpenAI, а его самого
The Wall Street Journal опубликовала расследование о личных инвестициях CEO OpenAI Сэма Альтмана. Часть акционеров компании стартовали приватно обсуждать, стоит ли именно ему вести OpenAI на IPO с цел
1 час назад
В Duolingo прекратили отслеживать использование сотрудниками ИИ при оценке эффективности
В апреле 2025 года генеральный директор Duolingo Луис фон Ан объявил, что система будет отслеживать использование ИИ сотрудниками в процессе оценки их работы. Теперь топ-менеджер заявил, что этот пока

2 часа назад
Исследование: для разблокировки по лицу на Android-смартфонах можно применять фото
Тесты в лабораториях Which выявили, что функцию блокировки по лицу во многих современных смартфонах можно обойти, используя лишь фотографию владельца. Читать далее