Наука и Технологии
Anthropic — американская исследовательская компания в сфере ИИ, основанная в 2021 году бывшими сотрудниками OpenAI.
Её миссия — строить надежные, объяснимые и управляемые системы искусственного интеллекта, уделяя особое внимание безопасности и этике.
Формат компании — Public Benefit Corporation: это значит, что она юридически обязуется учитывать общественную пользу, а не только коммерческую выгоду.
Основателями компании являются Дарио Амодеи и его сестра Даниэла Амодеи, а также группа других бывших сотрудников OpenAI. Дарио ранее был вице-президентом по исследованиям в OpenAI, Даниэла — вице-президентом по безопасности и политике.
Самым известным продуктом Anthropic является семейство моделей Claude — больших языковых моделей (LLM), применяемых для чат-ботов, генерации текста и кода.
Например, Claude Code умеет анализировать, редактировать и запускать программный код — это делает её полезной в разработке ПО и автоматизации задач в бизнесе.
Компания также активно занимается научными исследованиями в области интерпретируемости моделей, изучает их внутреннюю структуру и выстраивает внутренние принципы (“конституцию”), которые помогают моделям действовать безопасно.
Anthropic считается одним из пионеров подхода, где безопасность и управление возможными рисками — не побочный, а основной приоритет. Anthropic является серьёзным конкурентом OpenAI, особенно в сегменте продвинутых языковых моделей.
Через публикации по интерпретируемости и внутренней “морали” ИИ компания вносит вклад в понимание того, как устроены и как должны действовать продвинутые нейросети.
Anthropic — один из ключевых игроков в эволюции ИИ. Понимание того, как они балансируют между мощностью моделей и рисками, помогает читателю ориентироваться в глобальных тенденциях развития ИИ — от технологии до её этических и экономических последствий.


