18 марта 2026, 09:57
Anthropic ищет эксперта, чтобы предотвратить «неправомерное использование» оружия с помощью ИИ

Американская организация в сфере искусственного интеллекта Anthropic ищет эксперта по химическому оружию и взрывчатым веществам крупный мощности, чтобы предотвратить «катастрофическое неправомерное использование» своего программного обеспечения. Разработчик Claude опасается, что его ИИ-инструменты могут подсказать кому-то, как разрабатывать химическое и радиоактивное оружие. Эксперт должен обеспечить достаточную надёжность защитных механизмов ПО.
В вакансии Anthropic указывает, что соискатель должен иметь минимум пятилетний опыт работы в сфере «защиты от химического оружия и взрывчатых веществ», а также знания о «радиационных средствах рассеивания», известных как «грязные бомбы».
Организация сообщила BBC, что эта должность аналогична тем, которые уже созданы в других ответственных областях. Anthropic — не единственная организация в сфере ИИ, которая применяет эту стратегию. Аналогичную вакансию на своём сайте разместила и OpenAI. Разработчик ChatGPT предлагает таким кандидатам до $455 тыс., что почти вдвое больше, чем готова платить Anthropic.
Некоторые эксперты обеспокоены рисками такого подхода, предупреждая, что он предоставляет информацию об оружии ИИ-инструментам, даже если им дано указание не применять её. Исследователи указывают на отсутствие международного договора или иного регламента, регулирующего этот сценарий работы и использования ИИ с подобным оружием. Всё это происходит незаметно для окружающих.
Индустрия ИИ постоянно предупреждала о потенциальных экзистенциальных угрозах, исходящих от её технологий, но компании и законодатели не предприняли никаких попыток замедлить этот прогресс. Задача приобрела особую важность, когда американское правительство заключило контракты с ИИ-компаниями и начало боевые действия на Ближнем Востоке.
В конце прошлого месяца генеральный директор Anthropic Дарио Амодей отказал Министерству оборону США в предоставлении полного доступа к своим ИИ-системам. В ответ Пентагон поместил компанию в категорию рисков для цепочки поставок США. Anthropic теперь оспаривает этот статус через суд.
Разработчик настаивает, что его системы не должны использоваться в полностью автономном оружии и для массовой слежки за американцами. Амодей пишет, что технология ещё нев достаточной степени совершенна и не должна применяться в этих целях.
OpenAI заявила о согласии с позицией Anthropic, но затем заключила собственный контракт с правительством США, который пока ещё не стартовал действовать. Пентагон продолжает применять Claude в системах, предоставленных Palantir.
Читают сейчас

27 минут назад
Разработчик Amazon выявил регрессию в тестовом ядре Linux 7.0, в два раза снижающую эффективность PostgreSQL
Разработчик из Amazon Сальваторе Дипьетро обнаружил регрессию при тестировании СУБД PostgreSQL и компонентов готовившегося к релизу ядра Linux 7.0. Выпуск новой версии ядра Linux, которая будет исполь

1 час назад
Экипаж лунной миссии «Артемида» II на космическом корабле «Орион» преодолел больше половины пути до Луны
В НАСА сообщили, что экипаж лунной миссии «Артемида» II на космическом корабле «Орион» преодолел больше половины пути до Луны. В настоящий момент корабль находится приблизительно в 141 тыс. км от Луны

1 час назад
Представлен публике дистрибутив Netrunner 26 на Debian 13 «Trixie» и Linux 6.16
В начале апреля 2026 года разработчик проекта Nitrux Ури Эррера объявил о выпуске и общедоступности сборки Netrunner 26 (кодовое название Twilight), спустя более года после выхода Netrunner 25. Инициа

2 часа назад
Версия библиотеки meshoptimizer 1.1
2 апреля 2026 года разработчик Arseny Kapoulkine (zeux) представил обновление открытой библиотеки meshoptimizer 1.1. Исходный исходник проекта написан на C++ и JavaScript и опубликован на GitHub под л

8 часов назад
Claude Code нашел 23-летний дефект в Linux
Николас Карлини, исследователь из Anthropic, рассказал на конференции [un]prompted 2026, что с помощью Claude Code обнаружил несколько удаленно эксплуатируемых уязвимостей в ядре Linux. Одна из них —