Технологический стартап полностью полагался на ИИ-инструмент Claude, но в результате потерял доступ для всей фирмы, что привело к практически полной остановке работы. Решение проблемы заняло несколько часов.
Какому стартапу отказали в доступе?
Аргентинский финтех-стартап Belo использовал ИИ-инструмент Claude от Anthropic как центральный элемент своей повседневной работы. Именно это стало проблемой, когда все аккаунты внезапно были деактивированы.
Как сообщил технический директор компании Пато Молина (Pato Molina) в социальной сети X, более 60 сотрудников одновременно потеряли доступ. Он публично раскритиковал инцидент, отметив, что блокировка произошла без какого-либо предупреждения.
«Anthropic решил заблокировать всю нашу организацию из-за предполагаемого нарушения условий использования. Какое конкретное правило мы нарушили, понятия не имеем – мы просто получили электронное письмо, и все, прощай, Claude. Чтобы оспорить это решение, нужно заполнить Google-форму, как бы нелепо это ни звучало.»
– Пато Молина через X
Хрупкая зависимость
Как сильно пострадала компания?
Последствия для стартапа были значительными. Поскольку многие внутренние процессы проходили через ИИ, большая часть ежедневной работы не могла быть выполнена (по данным TimesOfIndia).
Для технологической компании, которая сильно зависит от эффективности и скорости, такой сбой означает не только задержки, но и экономический ущерб. Ситуация также наглядно показала техническому директору, насколько сильно некоторые отрасли стали зависимы от внешних сервисов.
Пато Молина подчеркнул в X, что для программных компаний, которые полагаются на ИИ-инструменты в критически важных процессах, крайне важно не ставить все на одну карту.
Было ли объяснение от Anthropic?
Сначала в течение нескольких часов было неясно, почему аккаунты были заблокированы. Особенно раздражало то, что предварительных уведомлений или предупреждений не было.
Только позже Anthropic объяснил, что это, по-видимому, была автоматизированная мера безопасности. Такие системы обычно активируются при обнаружении необычной активности. После внутренней проверки доступ был в итоге восстановлен, что указывает на отсутствие нарушений правил.
Когда один сервис выходит из строя, останавливается не только отдельный инструмент, но зачастую и значительная часть целых компаний. Определенные области работы настолько сильно строятся на ИИ-решениях, что возникают серьезные зависимости. При этом ИИ может совершать серьезные ошибки, как показывает недавний пример: бабушка оказалась в тюрьме, потому что следователи поверили искусственному интеллекту.








