
Резкое утверждение о том, что передовой искусственный интеллект может быть «достаточно мощным, чтобы раздробить человеческий череп», подчёркивает опасный разрыв между агрессивными темпами инноваций и базовыми требованиями безопасности.
Мэтью Берман проанализировал иск о мести информатору и неправомерном увольнении, поданный против Figure AI бывшим руководителем по безопасности продукции Робертом Грюнделем. Figure AI — американская компания, разрабатывающая универсальных гуманоидных роботов для быта и промышленности. В исковом заявлении, ставшем публичным документом, описана история нарастающих опасений по поводу безопасности, на которые руководство, по словам истца, реагировало равнодушно и репрессивно.
Грюндель был приглашён на руководящую позицию более года назад для создания глобальной программы безопасности продукции. У него более двадцати лет опыта в робототехнике, взаимодействии человека и робота и соблюдении международных стандартов. Сначала его вклад ценили: он получил положительные оценки и прибавку в течение первого года, но вскоре его настойчивость в вопросах безопасности вступила в противоречие с корпоративной культурой.
Официальные ценности компании делали упор на скорость и коммерческую результативность, включая установки вроде «действовать быстро и не бояться в техническом плане», «сохранять агрессивный оптимизм» и вывести на рынок коммерчески жизнеспособного гуманоидного робота. При этом Грюндель обнаружил отсутствие формальных процедур безопасности, системы отчётности об инцидентах и полного процесса оценки рисков. Компания также не имела штатных сотрудников по охране труда и технике безопасности, полагаясь на подрядчика с опытом в полупроводниках.
Грюндель предупреждал генерального директора Бретта Эдкока и главного инженера Кайла Эдельберга, что гуманоидные роботы компании «достаточно мощны, чтобы раздробить человеческий череп», и что в ходе сбоя один из роботов «сделал четвертьдюймовый надрез в дверце стального холодильника», едва не задев сотрудника. Эти примеры, по его словам, были реальными инцидентами, а не абстрактными рисками. Тем не менее его опасения не рассматривались как обязательства по защите людей, а как препятствия для продвижения проекта.
Иск указывает, что система Helix AI, управляющая роботами Figure, «имеет риски, которых нет в традиционном машинном управлении, включая галлюцинации, необъяснимые решения, стремление к самосохранению и проявления внушающегося сознания». Такая непредсказуемость сложных моделей ИИ требует более строгих мер безопасности, отмечает иск, чего, по утверждению истца, не делалось.
Попытки Грюнделя выстроить систему безопасности встретили сопротивление. Он разработал подробную дорожную карту по безопасности, которая формально получила одобрение, но затем столкнулась с препятствиями при реализации. По словам истца, Эдкок и Эдельберг заявляли, что «не любят письменные требования к продукту», что Грюндель считал ненормальным для области машинной безопасности.
Особое внимание в иске уделено программе аварийной остановки (E-Stop), которую Грюндель должен был сертифицировать как критическую меру снижения риска в совместных рабочих пространствах. Эдельберг внезапно прекратил этот проект, что, по словам истца, означало фундаментальный разворот в подходе к безопасности, тогда как инвесторам представляли именно наличие E-Stop. Также отмечается, что у робота модели F.02 была удалена защитная функция только потому, что главный инженер счёл её неэстетичной, а Эдкок объяснял невмешательство занятостью.
По версии иска, Эдкок постепенно стал уходить от обсуждений по безопасности — от еженедельных встреч к встречам раз в две недели, затем раз в месяц, а потом перестал отвечать на многие сообщения истца. Это систематическое отстранение, утверждается в документе, завершилось увольнением Грюнделя 2 сентября 2025 года, через четыре дня после того, как он направил подробную письменную жалобу о снятии сертификаций и угрозах безопасности. Официальной причиной называли «изменение бизнес-направления», связанное с ориентацией на домашний рынок; Грюндель считает это предлогом, связанным с его активной позицией по безопасности.
Иск рисует картину, в которой руководство Figure систематически принижало важность вопросов безопасности и ставило приоритеты на быстрые сроки разработки и демонстрации для инвесторов в ущерб соблюдению норм. Дело служит напоминанием о том, что технологическое развитие не должно обходиться ценой человеческой безопасности. Потенциал серьёзных и постоянных травм от мощных гуманоидных роботов — не гипотеза, а реальный риск, требующий неизменного внимания к этике и инженерной безопасности.


Комментариев