Китайські творці ШІ агресивно витісняють американських розробників

Китайські творці ШІ агресивно витісняють американських розробників

Американська компанія Anthropic, що готується до IPO у четвертому кварталі 2026 року, зіткнулася з серйозними труднощами. Попри залучені 30 млрд дол інвестицій, компанія витратила 10 млрд дол на навчання та інференс моделей, заробивши лише 5 млрд дол.

Нагадаємо, що Anthropic — це американський стартап, що працює у сфері штучного інтелекту (ШІ) та був заснований колишніми керівниками OpenAI. Фірма відома передусім розробкою чат-бота Claude та своєю прихильністю до створення безпечного й етичного ШІ. До речі, один із ключових розробників інструменту Claude Code Борис Черний має українське походження.

Чатбот Claude, що є головним конкурентом ChatGPT, вирізняється здатністю опрацьовувати величезні обсяги тексту (контекстне вікно), високою швидкістю та більш «людяним» стилем спілкування. Особливість Claude – конституційний ШІ (Constitutional AI). Компанія розробила унікальний метод навчання моделей, за якого ШІ керується певним набором етичних принципів («конституцією») для самостійної перевірки та виправлення своїх відповідей, щоб уникнути шкідливого контенту.

Однак сьогодні компанія переживає не найкращі часи, і найбільша загроза походить від китайських конкурентів. За даними березня 2026 року, частка Anthropic на ринку LLM впала з 29,1 % до 13,3 %. Китайські моделі – MiMo-V2-Pro від Xiaomi, Step 3.5 Flash, DeepSeek V3.2, MiniMax M2.7, MiniMax M2.5 та GLM 5 Turbo (z.ai) – зайняли перші шість місць у рейтингах. Деякі з них пропонують 90 % якості Claude 4.6 Opus за лише 7 % вартості ($0,27 проти $3,67 за мільйон токенів).

Моделі Claude Opus 4.6 та Claude Sonnet 4.6 від компанії Anthropic наразі посідають сьоме та восьме місця. Притому компанія Anthropic стверджує, що MiniMax, Moonshot AI та DeepSeek скопіювали або «переробили» її моделі Claude.

Ситуацію погіршує та сама розрекламована надмірна безпека моделей Anthropic. Новий кіберзахист Claude Opus 4.6 призводить до суворої цензури, численних хибних спрацьовувань і відмов навіть у легітимних дослідженнях вразливостей. Багато дослідників безпеки вже відмовляються від Claude, скасовують підписки і переходять на значно дешевші китайські аналоги.

Таким чином, поки Anthropic бореться за «безпечний» ШІ, китайські моделі швидко захоплюють ринок завдяки ціні та практичній корисності, ставлячи під загрозу релевантність компанії.

А нещодавно ми писали, як запобігти галюцинаціям ШІ: 5 ефективних стратегій.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *