Стартап Glacis из Сиэтла привлекает ветерана-руководителя Microsoft для устранения самого большого слепого пятна в сфере искусственного интеллекта

Дата:

Рохит Татачар, технический директор и соучредитель Glacis.

Будучи опытным инженером и руководителем продуктов Microsoft Azure, Рохит Татачар видел, что многие компании создают системы искусственного интеллекта, которые они не могут полностью отслеживать или контролировать в производстве.

На своей новой должности в стартапе из Сиэтла он что-то с этим делает.

Сейчас Татачар является соучредителем и техническим директором компании Glacis, которая создает защищенные от несанкционированного доступа записи поведения ИИ, то, что генеральный директор Джо Брэйдвуд назвал «самописцем полетов для корпоративного ИИ». Его появление произошло в тот момент, когда Glacis запускает новые инструменты с открытым исходным кодом для мониторинга и контроля агентов ИИ.

Glacis, впервые освещенный GeekWire в ноябре 2025 года, был основан Брэйдвудом и доктором Дженнифер Шеннон, психиатром и доцентом Вашингтонского университета.

Компания получила трудный урок: предыдущий стартап Брейдвуда, Yara, инструмент для психического здоровья на базе искусственного интеллекта, пришлось закрыть после того, как было замечено, что модели отклонялись от предполагаемого поведения во время долгих разговоров с уязвимыми пользователями.

После того, как он написал об отключении в LinkedIn, регулирующие органы, врачи, инженеры и руководители страховых компаний высказали одно и то же наблюдение: когда системы ИИ принимают решения, никто не может независимо проверить, действительно ли сработали меры безопасности.

Это стало искрой для Гласиса.

Как это работает: основной продукт стартапа, называемый Arbiter, находится на пути каждого вызова вывода ИИ и создает подписанную запись входных данных, выполненных проверок безопасности и конечного результата.

Запись не может быть изменена постфактум. В масштабе система, которую Glacis называет Witness Network, нотариально заверяет эти записи и превращает их в проверяемый след.

Клиенты могут выбрать запуск системы в «теневом режиме», наблюдая без вмешательства, или в режиме правоохранительных органов, где она активно ограничивает поведение ИИ.

Соучредители Glacis Джо Брэйдвуд (слева) и Дженнифер Шеннон. (Фото Гласис)

Шеннон, главный медицинский директор Glacis, сказал, что ставки в здравоохранении высоки. Будучи практикующим детским психиатром, она видела, как писцы окружающей среды с помощью искусственного интеллекта галлюцинировали содержание ее клинических записей, в том числе выписывали рецепты на лекарства, которые она никогда не выписывала.

«Мне хотелось бы вернуться назад и увидеть каждый шаг того, как эта модель ИИ приняла это решение», — сказал он. «Если для этого нет инфраструктуры, кто несет ответственность? Никто не будет подавать в суд на ИИ. Это я».

Основная проблема: Татачар проработал в Microsoft два срока на протяжении почти 19 лет, последний раз в качестве старшего менеджера по продукту в команде Microsoft Foundry, ее платформе для создания и развертывания корпоративных приложений и агентов искусственного интеллекта.

Он сказал, что видел компании, создающие инструменты и проводящие проверку концепции, но изо всех сил пытающиеся внедрить ИИ в производство, потому что они не могут объяснить или проверить, что делают их системы.

По его словам, проблема имеет три измерения: базовое состояние инфраструктуры клиента, поведение модели и так называемый «дрейф намерений», когда система ведет себя не так, как предполагал клиент, даже если базовая модель функционирует нормально.

Glacis контролирует развертывание во всех трех системах. «Только когда эти трое сходятся воедино, клиент имеет реальное представление о том, что на самом деле произошло», — сказал Татачар.

Новые выпуски: Glacis запускает auto-redteam, инструмент с открытым исходным кодом, который автоматически атакует системы искусственного интеллекта по различным категориям уязвимостей, затем генерирует исправления и проверяет их эффективность.

Компания также выпускает OVERT 1.0, стандарт того, что она называет «наблюдаемыми доказательствами проверки доверия во время выполнения», призванный предоставить организациям основу для включения наглядной безопасности ИИ в их операции.

Релизы происходят в нестабильное время для безопасности агентов ИИ. OpenClaw, платформа ИИ-агентов с открытым исходным кодом, с момента своего дебюта в конце 2025 года привлекла сотни тысяч разработчиков, но ее быстрое внедрение опередило ее архитектуру безопасности.

Крупнейшие компании, занимающиеся кибербезопасностью, в том числе CrowdStrike и Cisco, опубликовали анализы, предупреждающие об уязвимостях системы безопасности. Брэйдвуд заявил, что это показывает необходимость в инфраструктуре, которая могла бы обеспечивать контроль безопасности во время выполнения, а не просто тестировать его перед развертыванием.

Целевой рынок: Компания ориентируется на клиентов в секторах здравоохранения, финансовых технологий и страхования.

В начале этого года на конференции JP Morgan в области здравоохранения компания подписала два пилотных соглашения, еще три находятся в стадии разработки. Брэйдвуд сказал, что компания рассматривает здравоохранение как отправную точку, но считает, что проблема в конечном итоге универсальна для любого внедрения ИИ.

Новое событие на этой неделе: Glacis также открывает список ожидания для стартового плана стоимостью 49 долларов в месяц, который охватывает красную команду, соответствие требованиям и сертификацию криптовалют для до 10 000 событий искусственного интеллекта в месяц. Профессиональный уровень стоимостью 499 долларов США охватывает до 100 000 событий.

Брэйдвуд заявил, что этот шаг является преднамеренным шагом, направленным на то, чтобы сделать технологию доступной за пределами регулируемых компаний и партнеров по проектированию, с которыми компания работала до сих пор.

Общая картина: наблюдаемость и безопасность ИИ — это быстро развивающийся рынок, на котором хорошо финансируемые стартапы и крупные компании предлагают мониторинг времени выполнения и защитные меры для корпоративного ИИ.

Брэйдвуд сказал, что Glacis отличается своей ориентацией на криптографическую доказуемость: не только выявляет проблемы, но и предоставляет защищенные от несанкционированного доступа доказательства того, что проверки безопасности были выполнены, что, по его словам, может помочь компаниям договориться о страховом покрытии и удовлетворить требования регулирующих органов.

Финансирование: Glacis привлек $575 000 от группы инвесторов, включая Фонд безопасного искусственного интеллекта Джеффа Ралстона, Mighty Capital, Sourdough Ventures и AI2 Incubator.

Он также является частью программы Cloudflare Launchpad и третьей группы акселераторов Plug and Play в Сиэтле. Брэйдвуд сообщил, что компания надеется закрыть посевной раунд позднее в этом году.

Команда: В Glacis работают пять сотрудников, в том числе три соучредителя и два инженера.

Татачар сообщил, что шестым «сотрудником» компании станет агент искусственного интеллекта, которому будет поручено выполнять работу по обеспечению соответствия SOC 2 через Vanta. Команда пишет свой основной криптокод на Rust и использует Claude, Codex и ChatGPT в своем рабочем процессе.

«У нас компания из 100 человек», — пошутил Брэйдвуд. «Пять из них реальны, а остальные находятся в облаке или на рабочем столе».

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

Чемпион среди розничных инвесторов Райан Коэн приглашен на Гран-при по торговле FlowTraders

Будучи ключевым игроком в финансовом секторе, FlowTraders всегда стремилась...

Райан Коэн, чемпион среди розничных инвесторов, гость

Будучи ключевым игроком в финансовом секторе, FlowTraders всегда стремилась...

Coxdoge.com: Будущая ценность и тенденции Биткойна в США

Coxdoge.com, крупная криптовалютная биржа, производит фурор в мире биткойнов...