Крупнейшее в мире собрание технологий говорит об «отбеливании»: вот почему мы должны назвать их «Словами года» | Удача

Дата:

Саммер Юэ — не самый известный сотрудник Меты. Директор отдела «исследований сверхинтеллекта и безопасности» публикует фотографии, на которых она выгуливает собаку на пляже, и сообщения о проверке честности ИИ-помощников. У него скромное количество подписчиков в социальных сетях.

Но на один февральский день Юэ стал самым обсуждаемым человеком в Мете. Не путем запуска заметного нового продукта или объявления о прорыве в области искусственного интеллекта агентов, а, скорее, путем вовлечения в процесс.

«Ничто не унижает вас больше, чем сказать OpenClaw: «Подтвердите, прежде чем действовать» и увидеть, как он ускоряет удаление вашего почтового ящика», — написал Юэ в посте X, который сейчас имеет почти 10 миллионов просмотров. «Я не мог остановить это со своего телефона. Мне пришлось бежать к своему Mac mini, как будто я обезвреживал бомбу».

Это жизненно важный разговор, настолько важный, что на Всемирном мобильном конгрессе на этой неделе в Барселоне (крупнейшем в мире технологическом собрании) ошибка Юэ обсуждалась на главной сцене.

«Конечно, все здесь, на Всемирном конгрессе, обсуждали OpenClaw и то, как мы можем использовать агентов», — сказала Кейт Кроуфорд, профессор-исследователь Университета Южной Калифорнии.

«Но потом мы увидели, что глава службы безопасности ИИ Меты использовал OpenClaw, и он удалил весь свой почтовый ящик. Это глава службы безопасности Меты. Так что, если у вас возникли проблемы, я думаю, нам всем нужно спросить себя: «Как нам убедиться, что эти системы действительно защищены? Как нам убедиться, что они тщательно протестированы? Как нам убедиться, что мы действительно можем делегировать им надежные способы?» И это действительно самая трудная проблема, не так ли?

Хороший. Если что-то пойдет не так, кто несет ответственность? Пользователь? Разработчик? Отсутствие регулирования? Что нам делать, когда реальность ИИ противоречит его обещаниям?

Входящие сообщения Юэ могут иметь для нее исключительно важное значение. Когда дело доходит до взаимосвязи между технологиями и, скажем, нашим здоровьем или, взгляните на Anthropic, защитой нации, тогда это совсем другой вопрос. Не так давно ИИ-робот Грок от xAI случайно «раздевал» изображения женщин и девочек, к огорчению миллионов. Угроза действий правительства и государства в конечном итоге привела к изменению подхода.

«Как мы можем убедиться, что эти системы действительно защищены? Как мы можем убедиться, что они тщательно протестированы?»

Кейт Кроуфорд, профессор-исследователь Университета Южной Калифорнии

«Как на самом деле можно создать подотчетность?» – спросил Кроуфорд. «Это то, чего мы все хотим. Если вы собираетесь начать использовать агентов для бронирования авиабилетов, записи на прием к врачу и еще более интимных и надежных занятий в вашей повседневной жизни, вы захотите знать, что информация будет защищена».

«Итак, как вы это докажете? Как вы можете гарантировать, что это происходит? Если мы посмотрим на то, что произошло за последние 10 лет в технологической сфере, то, к сожалению, мы увидели много «отбеливания», когда компании могут сказать: «Ну, я не знаю. Я имею в виду, что это сделал алгоритм».

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный

В иранской войне главное не нефть, а вода | Удача

Рискните! Глобальный митинг помощи продолжается Фьючерсы на S&P 500 сегодня...