
26 февраля 2026, 08:32
Anthropic сняла запрет на обучение опасных моделей на фоне давления Пентагона
Anthropic обновила свою Политику ответственного масштабирования (Responsible Scaling Policy, RSP) до версии 3.0 и убрала из нее ключевое обещание, которое организация давала с 2023 года: не обучать ИИ

25 февраля 2026, 18:11
Блогпост про ИИ-апокалипсис обрушил индекс Dow на 800 пунктов
Основатель фирмы Citrini Research Джеймс ван Гилен опубликовал на Substack вымышленный аналитический отчет из июня 2028 года, в котором ИИ-агенты заменили белых воротничков, безработица в США превысил

24 февраля 2026, 16:21
Anthropic объяснила, почему ИИ ведет себя как человек — и почему иначе не получится
Исследователи Anthropic опубликовали теорию, которая описывает ИИ-ассистентов не как программы с набором правил и не как непостижимых "инопланетян", а как актеров, играющих роль. В соответствии с моде
24 февраля 2026, 10:57
Anthropic обвинила три китайские ИИ-компании в создании фейковых аккаунтов с Claude для улучшения собственных моделей
Компания Anthropic обвиняет три китайские компании, занимающиеся разработкой ИИ, в создании более 24 тысяч фейковых аккаунтов с использованием модели Claude AI для улучшения собственных моделей. Читат

23 февраля 2026, 23:43
Красивый исходник усыпляет бдительность: Anthropic выяснила, когда пользователи перестают проверять ИИ
Anthropic опубликовала AI Fluency Index — первый количественный замер того, насколько грамотно люди работают с ИИ. Компания проанализировала 9 830 анонимизированных диалогов с Claude за неделю в январ

23 февраля 2026, 21:34
Anthropic: DeepSeek, Moonshot и MiniMax тайно обучали свои модели на ответах Claude
По заявлениям Anthropic, они обнаружили, что три китайские AI-лаборатории — DeepSeek, Moonshot и MiniMax — массово выкачивали ответы Claude, чтобы обучать на них свои модели. Суммарно они сгенерировал