Fortune Tech: Мета-тест YouTube | Удача

Дата:

Добрый день. Если ИИ — это сверхдержава на рабочем месте, может быть, ему следует поставить предупреждающую табличку? Согласно новому исследованию исследователей из Калифорнийского университета в Беркли, люди, использующие на работе инструменты генеративного искусственного интеллекта, видят такой прирост производительности, что в конечном итоге они работают больше, а не меньше.

«Мы обнаружили, что сотрудники работают быстрее, берут на себя более широкий круг задач и распределяют работу на большее количество часов в день, часто даже без просьб об этом», — пишут исследователи в статье Harvard Business Review, которая вызвала много шума. Некоторым менеджерам повышение производительности может показаться хорошей вещью, но исследователи предупреждают, что это «возросшая рабочая нагрузка может, в свою очередь, привести к когнитивной усталости, выгоранию и ослаблению процесса принятия решений» и, в конечном итоге, к снижению качества работы и текучести кадров. Фаустовская сделка для работника умственного труда.

Хотите отправить мысли или предложения в Fortune Tech? Напишите сюда.

Начинается исторический суд над зависимостью от социальных сетей и технологий

Некоторые из крупнейших игроков в сфере технологий предстают перед судом в Лос-Анджелесе по обвинению в том, что их платформы намеренно вызывают зависимость у молодых пользователей. Судебный процесс станет первым случаем, когда технологические гиганты Meta и YouTube дадут ответ перед присяжными по обвинениям: Snapchat и TikTok достигли соглашения с истцами в прошлом месяце. Судебный процесс, который продлится от шести до восьми недель, вероятно, будет включать в себя показания генерального директора Meta Марка Цукерберга, генерального директора Instagram Адама Моссери и генерального директора YouTube Нила Мохана. Эксперты по правовым вопросам провели параллели с историческими судебными разбирательствами по поводу табачных изделий 1990-х годов.

Вступительные заявления начались в Лос-Анджелесе в понедельник, когда адвокат истцов Марк Ланье заявил, что обе компании намеренно создали «машины, предназначенные для воздействия на детский мозг».

Ланье утверждал, что у его клиента, которого идентифицировали по инициалам KGM, возникли проблемы с психическим здоровьем из-за зависимости от социальных сетей. Защита Меты ответила, что проблемы истца были вызваны семейными трудностями, а не дизайном платформы, подчеркнув продолжающиеся научные дебаты о том, существует ли зависимость от социальных сетей.

Amazon планирует создать рынок для издателей и компаний, занимающихся искусственным интеллектом

По данным The Information, Amazon планирует запустить торговую площадку, где издатели смогут продавать свой контент компаниям, занимающимся искусственным интеллектом. Согласно отчету, интернет-компания, которая разрабатывает собственные программы LLM и предлагает модели других компаний через свой облачный сервис AWS, упомянула в слайдах будущий рынок контента.

Этот шаг происходит на фоне споров издателей и компаний, занимающихся искусственным интеллектом, о том, как следует лицензировать и оплачивать контент, на фоне опасений издателей, что инструменты поиска и чата на основе искусственного интеллекта снижают трафик и доходы от рекламы. Cloudflare и Akamai запустили аналогичный проект в прошлом году. Microsoft протестировала свою собственную версию и распространила ее более широко на прошлой неделе. Но пока неясно, сколько ИИ-компаний покупают на этих рынках и в каких объемах. Некоторые крупные издатели заключили индивидуальные сделки на миллионы долларов в год с OpenAI, Anthropic и другими. — Джереми Кан

Watchdog утверждает, что OpenAI нарушил новый закон Калифорнии об искусственном интеллекте

Согласно утверждениям группы по наблюдению за искусственным интеллектом Project Midas, OpenAI, возможно, нарушила новый закон Калифорнии о безопасности искусственного интеллекта, выпустив свою последнюю модель кодирования GPT-5.3-Codex.

Генеральный директор OpenAI Сэм Альтман заявил, что новая модель имеет «высокие» оценки во внутренней рейтинговой системе компании по потенциальным рискам; в данном случае существует риск того, что его можно использовать для автоматизации атак кибербезопасности.

Политика OpenAI требует, чтобы модели с высоким риском кибербезопасности публиковались с особыми мерами безопасности. Но, согласно проекту Midas, OpenAI не реализовала эти меры безопасности до выпуска GPT-5.3-Codex, что является нарушением калифорнийского закона SB 53. Закон, вступивший в силу в январе, требует от крупных компаний, занимающихся искусственным интеллектом, публиковать и соблюдать свои собственные системы безопасности.

OpenAI утверждает, что интерпретация ее политики проектом Мидас неверна, хотя она также заявила, что формулировка в ее структуре «двусмысленна» и что она попыталась прояснить этот вопрос в отчете о безопасности, опубликованном вместе с GPT-5.3-Codex на прошлой неделе. — BN

Больше технологий

— 2 соучредителя xAI уходят. 6 из 12 соучредителей больше не работают в компании.

— Paramount поднимает предложение по Warner. Заплатит комиссию за расторжение отношений с Netflix.

— Доходы Spotify удивили Уолл-стрит. 38 миллионов новых пользователей и рост количества репостов.

— Facebook позволяет пользователям анимировать свой профиль с помощью искусственного интеллекта. Передавай привет своим друзьям!

— Бывший генеральный директор Github собирает стартовый фонд в размере 60 миллионов долларов. Стартап помогает людям и агентам искусственного интеллекта взаимодействовать.

— Марк Цукерберг становится жителем Флориды. Миллиардер покупает дом на берегу моря в Майами.

Website |  + posts

Поделиться публикацией:

spot_imgspot_img

Популярный

Больше похожего
Связанный