Claude почав масово блокувати акаунти росіян: користувачі втратили роки роботи з ШІ

Користувачі Claude з Росії почали масово втрачати доступ до своїх акаунтів. Частина з них заявляє про втрату важливих даних, проєктів і напрацьованих AI-сценаріїв, які накопичувалися місяцями.
Компанія Anthropic, яка розробляє мовну модель Claude, ймовірно, почала масштабне очищення акаунтів, пов'язаних із використанням сервісу з території Росії. Про це повідомляють російські видання з посиланням на користувачів, які втратили доступ до своїх облікових записів, інформує UAINFO.org з посиланням на "24 канал".
За даними джерела, під блокування потрапили вже кілька сотень людей. Серед них – IT-фахівці, підприємці та користувачі, які активно інтегрували Claude у робочі процеси. Деякі з них називають нейромережу своїми "зовнішніми мізками", адже роками накопичували в чатах архітектуру проєктів, аналітичні матеріали, робочі інструкції та персоналізовані сценарії взаємодії з ШІ.
Частина користувачів стверджує, що доступ було втрачено без можливості відновлення даних. Як компенсацію Anthropic нібито повертає гроші за активні підписки, однак самі акаунти залишаються заблокованими.
Читайте також: Вчений розробив модель для вимірювання рівня свідомості у людей, тварин та ШІ
Claude є однією з найпопулярніших великих мовних моделей поряд із ChatGPT та DeepSeek. Проте сервіс офіційно недоступний на території Росії. Попри це, користувачі роками обходили обмеження за допомогою VPN, іноземних номерів телефонів і сторонніх платіжних інструментів.
Експерт з AI Дмитро Антіпов припустив, що саме використання таких "сірих схем" могло стати головною причиною нинішньої хвилі блокувань. За його словами, Anthropic може проводити внутрішню оптимізацію систем безпеки та одночасно посилювати перевірки для непідтверджених або підозрілих акаунтів.
Ще одне пояснення озвучив експерт із впровадження штучного інтелекту Роман Адаменко. Він вважає, що система могла автоматично реагувати на нестабільне підключення користувачів. Постійна зміна IP-адрес, регіонів і VPN-серверів може виглядати для алгоритмів Anthropic як підозріла активність або порушення правил використання платформи.
Читайте також: ШІ в секретних мережах США: сім техногігантів уклали угоди з Пентагоном
Як пише Dev by, наразі Anthropic офіційно не коментувала повідомлення про масові блокування. Також невідомо, чи йдеться про разову хвилю перевірок, чи компанія почала системно боротися з використанням сервісу в регіонах, де Claude формально недоступний.
Ситуація також показала ризики використання хмарних AI-сервісів як основного робочого інструменту без резервного копіювання. Для багатьох користувачів чати з нейромережею фактично стали базою знань, сховищем ідей і робочою пам'яттю для складних проєктів. Втрата доступу до акаунта в такому випадку означає втрату великого масиву напрацьованої інформації.
На тлі стрімкого розвитку генеративного ШІ подібні інциденти можуть посилити дискусії про залежність користувачів і бізнесу від закритих AI-платформ, які мають повний контроль над доступом до даних і сервісів.
Підписуйся на сторінки UAINFO Facebook, Telegram, Twitter, YouTube
Повідомити про помилку - Виділіть орфографічну помилку мишею і натисніть Ctrl + Enter
Сподобався матеріал? Сміливо поділися
ним в соцмережах через ці кнопки
