Что найм OpenClaw компании OpenAI говорит о будущем агентов искусственного интеллекта | Удача

Дата:

Здравствуйте и добро пожаловать на сайт Eye on AI, где Шэрон Голдман заменяет Джереми Кана. В этом выпуске: Что на самом деле означает найм OpenClaw компанией OpenAI… Пентагон угрожает антропным наказанием… Почему видео ИИ, на котором Том Круз сражается с Брэдом Питтом, напугало Голливуд… Тревога, порождающая жестокую культуру работы ИИ.

Именно такое автономное поведение сделало OpenClaw интересным для разработчиков, приближая их к мечте о настоящем ДЖАРВИСе, постоянном помощнике из фильмов о Железном человеке. Но это быстро вызвало тревогу среди экспертов по безопасности. На прошлой неделе я назвал OpenClaw «плохим мальчиком» среди агентов ИИ, поскольку помощника, который является постоянным, автономным и глубоко связанным между системами, гораздо сложнее защитить.

Некоторые говорят, что нанять OpenAI — «лучший результат»

Эта напряженность помогает объяснить, почему некоторые считают вмешательство OpenAI необходимым шагом. «Я думаю, что это, вероятно, лучший результат для всех», — сказал Гавриэль Коэн, инженер-программист, создавший NanoClaw, который он называет «безопасной альтернативой» OpenClaw. «У Питера отличное чувство продукта, но проект стал слишком большим, слишком быстрым, без достаточного внимания к архитектуре и безопасности. OpenClaw фундаментально небезопасен и несовершенен. Они не могут просто исправить это с помощью патчей».

Другие считают этот шаг столь же стратегическим для OpenAI. «Это отличный шаг с их стороны», — сказал Уильям Фалькон, генеральный директор облачной компании Lightning AI, ориентированной на разработчиков, и сказал, что продукты Anthropic Claude, включая Claude Code, доминируют в сегменте разработчиков. OpenAI, пояснил он, хочет «завоевать расположение всех разработчиков, именно на них приходится большая часть расходов на ИИ». OpenClaw, который во многих отношениях является альтернативой Claude Code с открытым исходным кодом и в одночасье стал любимцем разработчиков, дает OpenAI «карту бесплатного выхода из тюрьмы», сказал он.

Альтман, со своей стороны, представил этот прием как ставку на то, что будет дальше. Он сказал, что Стейнбергер выдвинул «множество потрясающих идей» о том, как агенты ИИ могут взаимодействовать друг с другом, добавив, что «будущее будет чрезвычайно многоагентным» и что такие возможности «быстро станут основой нашего предложения продуктов». OpenAI заявила, что планирует сохранить OpenClaw в качестве независимого проекта с открытым исходным кодом через фонд, а не интегрировать его в свои собственные продукты. Это обещание, по словам Стейнбергера, имело решающее значение для его решения предпочесть OpenAI таким конкурентам, как Anthropic и Meta (в интервью Лексу Фридману Стейнбергер сказал, что Марк Цукерберг даже связался с ним лично через WhatsApp).

Следующий этап — завоевать доверие разработчиков ИИ-агентов.

Помимо ажиотажа на выходных, найм OpenAI компании OpenClaw дает представление о том, как развивается карьера агента ИИ. По мере того как модели становятся более взаимозаменяемыми, конкуренция смещается в сторону менее заметной инфраструктуры, которая определяет, смогут ли агенты работать надежно, безопасно и в масштабе. Привлекая создателя вирусного, но вызывающего споры автономного агента и обещая сохранить проект открытым исходным кодом, OpenAI сигнализирует о том, что следующий этап ИИ будет определяться не только более умными моделями, но и заслужит доверие разработчиков, которым предстоит превратить экспериментальных агентов в надежные системы.

Это может привести к появлению волны новых продуктов, сказал Йохей Накадзима, партнер Untapped Capital, чей эксперимент с открытым исходным кодом 2023 года под названием BabyAGI помог продемонстрировать, как LLM могут генерировать и выполнять задачи автономно, помогая положить начало современному движению агентов искусственного интеллекта. По его словам, и BabyAGI, и OpenClaw вдохновили разработчиков посмотреть, что еще они могут создать с использованием новейших технологий. «Вскоре после BabyAGI мы увидели запуск первой волны агентских компаний: gpt-engineer (стала Lovable), Crew AI, Manus, Genspark», — рассказал он. «Я надеюсь, что после этой недавней волны мы увидим подобные новые вдохновляющие продукты».

УДАЧА В ИИ

Инвестиции в искусственный интеллект в Индии растут, поскольку технологические лидеры собираются на саммит в Дели – Беатрис Нолан

Крупные технологические компании приближаются к моменту «красного флага»: капитальные затраты на искусственный интеллект настолько велики, что гипермасштабирование может привести к отрицательному денежному потоку, предупреждает Evercore – Джим Эдвардс

Генеральный директор Anthropic Дарио Амодей объясняет свою осторожность в отношении расходов, предупреждая, что если прогнозы роста ИИ отклонятся хотя бы на один год, «тогда вы обанкротитесь» – Джейсон Ма

ИИ В НОВОСТЯХ

Пентагон угрожает антропным наказанием. По данным Axios, Пентагон угрожает объявить Anthropic «риском цепочки поставок». Это редкий и карательный шаг, который фактически вынудит любую компанию, ведущую дела с военными США, разорвать связи со стартапом в области искусственного интеллекта. Чиновники Министерства обороны говорят, что они разочарованы отказом Anthropic полностью ослабить гарантии использования модели Клода (особенно ограничения, предназначенные для предотвращения массовой слежки за американцами или разработки полностью автономного оружия), утверждая, что военные должны иметь возможность использовать ИИ «для всех законных целей». Противостояние особенно напряженное, поскольку Клод в настоящее время является единственной моделью ИИ, одобренной для использования в секретных системах Пентагона, и она глубоко внедрена в военные рабочие процессы, а это означает, что резкий разрыв будет дорогостоящим и разрушительным. Спор подчеркивает растущую напряженность между лабораториями искусственного интеллекта, которые хотят наложить этические ограничения, и американским военным ведомством, которое все больше готово вести жесткую игру, стремясь к более широкому контролю над мощными инструментами искусственного интеллекта.

Тревога, которая движет жестокой культурой работы ИИ. Если вы когда-нибудь беспокоились о балансе между работой и личной жизнью, я думаю, после прочтения этой статьи вы почувствуете себя лучше. По данным The Guardian, в условиях бурно развивающейся экономики искусственного интеллекта в Сан-Франциско давние преимущества и гибкая культура технологического сектора заменяются неумолимыми и требовательными ожиданиями, поскольку стартапы заставляют сотрудников работать сверхурочно, с небольшими перерывами и испытывать чрезвычайное давление производительности во имя стремления идти в ногу с быстрым развитием и жесткой конкуренцией. Работники описывают 12-часовой рабочий день, шестидневную неделю и условия, в которых пропуск выходных или общественной жизни кажется платой за сохранение актуальности, даже несмотря на то, что растет беспокойство по поводу безопасности работы и влияния ИИ на будущие должности. Этот сдвиг отражает более широкую трансформацию в том, как оценивается работа ИИ, трансформацию, которая меняет нормы на рабочем месте и может предвещать аналогичное давление в других секторах по мере ускорения автоматизации и инноваций. Мне обязательно придется посмотреть, как это выглядит на земле в следующий раз, когда я буду в заливе.

ВЗГЛЯД НА ИССЛЕДОВАНИЯ ИИ

DEF CON, крупнейшая и старейшая хакерская конференция в мире, опубликовала свой последний «Альманах хакеров» — годовой отчет, в котором суммируются исследования, представленные в последнем издании в августе 2025 года. В докладе основное внимание уделяется тому, как исследователи показали, что системы искусственного интеллекта больше не только помогают людям быстрее взламывать, но иногда могут превосходить их по производительности. В нескольких соревнованиях по кибербезопасности команды, использующие агенты ИИ, победили команды, состоящие из людей, а в одном случае ИИ было разрешено работать самостоятельно и успешно проникнуть в целевую систему без дальнейшего вмешательства человека. Исследователи также продемонстрировали инструменты искусственного интеллекта, которые могут находить недостатки программного обеспечения в больших масштабах, имитировать человеческие голоса и манипулировать системами машинного обучения, подчеркивая, насколько быстро развиваются наступательные применения искусственного интеллекта.

Проблема, как утверждают исследователи, заключается в том, что большинство политиков мало осведомлены об этих возможностях, что увеличивает риск дезинформированных правил ИИ. Их предложение: позволить системам ИИ открыто конкурировать в публичных хакерских конкурсах, записывать результаты в открытую общую базу данных и использовать эти реальные доказательства, чтобы помочь правительствам разработать более разумную и реалистичную политику безопасности ИИ.

У ВАС ЕСТЬ КАЛЕНДАРЬ

16–20 февраля: Индийский саммит AI Impact Summit 2026, Дели.

24-26 февраля: Международная ассоциация по безопасному и этичному ИИ (IASEAI), ЮНЕСКО, Париж, Франция.

2-5 марта: Mobile World Congress, Барселона, Испания.

12–18 марта: Юг через юго-запад, Остин, Техас.

16–19 марта: Nvidia GTC, Сан-Хосе, Калифорния.

6–9 апреля: HumanX, Сан-Франциско

ПИТАНИЕ ДЛЯ МОЗГА

Дилемма доверия, когда ИИ входит в экзаменационную комнату. Меня восхитила новая статья из журнала Scientific American, в которой отмечается, что по мере того, как ИИ все глубже проникает в клиническую помощь, медсестры оказываются на переднем крае новой дилеммы доверия: должны ли они следовать указаниям, сгенерированным алгоритмом, когда реальные суждения говорят об обратном? Например, предупреждение о сепсисе побудило бригаду скорой помощи вводить жидкости пациенту с пораженными почками, пока медсестра не отказалась, а врач не преодолел ИИ. Исследование показало, что в больницах США прогностические модели теперь интегрированы во все: от оценки рисков и документирования до логистики и даже автономного продления рецептов, но сотрудники, работающие на переднем крае, все чаще жалуются, что эти инструменты не работают, им не хватает прозрачности и иногда подрывают клиническое суждение. Эти разногласия вызвали протесты и забастовки, а их защитники настаивают на том, что медсестры должны участвовать в принятии решений относительно ИИ, поскольку в конечном итоге именно люди несут ответственность за результаты.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный