Топовые ИИ-исследователи говорят, что искусственный интеллект создает «риски вымирания», подобные ядерной войне

С появлением ChatGPT, Bard и других крупных языковых моделей (LLM) лидеры технологической отрасли регулярно говорят о негативных последствиях, к которым может привести использование ИИ. Более того, в новом письме топовые исследователи технологии заявляют, что искусственный интеллект создает «риски вымирания», подобные тем, что могут вызвать пандемии или даже ядерные войны.

Курс Стратегічний маркетинг Ти нарешті продаси на співбесіді ручку… і стілець… і стіл Хочу на курсpic

Уменьшение этих рисков должно стать «глобальным приоритетом» человечества, уверены подписанты нового письма, среди которых гендиректор OpenAI Сэм Альтман, руководитель Google DeepMind Демис Хассабис, а также исследователи и лауреаты Премии Тюринга 2018 года за работу над ИИ, Джеффри Хинтон и Йошуа Бенгио, которых многие считают «крестными родителями современного искусственного интеллекта».

Интересно, что само заявление состоит всего из 22 слов — якобы для того, чтобы «избежать разногласий между подписантами». В еще одном открытом письме, опубликованном в марте, Илон Маск, Стив Возняк и более 1000 других экспертов призвали приостановить разработку технологии на полгода.

В настоящее время риски ИИ в основном связаны с этичностью, дезинформацией, авторским правом и потенциальным влиянием на рабочие места. Однако многие эксперты указывают на быстрое совершенствование таких систем, как большие языковые модели, в качестве доказательства будущих достижений искусственного интеллекта, и утверждают, что когда системы ИИ достигнут определенного уровня сложности, контролировать их действия будет невозможно.

Во многих странах уже предпринимают попытки запретить или ограничить использование больших языковых моделей. Президент США Джо Байден недавно заявил, что необходимо «выяснить, опасен ли ИИ‎», добавив, что технические компании обязаны убедиться, что их продукты безопасны, прежде чем обнародовать их. На недавней встрече в Белом доме Сэм Альтман сам призвал законодателей к регулированию ИИ из-за потенциальных рисков.

Подписывайтесь на новости AIcybernews.com в Twitter и Facebook

Другие новости

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии

Актуально

Последние новости

Застрявшим на МКС астронавтам, NASA предоставит возможность отдать голос на президентских выборах в США

Американские астронавты Сунита Уильямс (Sunita Williams) и Барри *Бутч* Уилмор (Barry *Butch*...

На какие альткоины стоит обратить внимание перед освобождением CZ

Возвращение Чжао может значительно повлиять на крипторынок. Экс-CEO крупнейшей в мире криптобиржи — одна из ключевых фигур в криптоиндустрии. За какими альткоинами следить в...

Утилита CPU-Z готова к релизу младших Intel Core Ultra 5 для настольных ПК

В следующем месяце корпорация Intel выпустит настольные процессоры Core Ultra 200 (Arrow Lake-S) для платформы LGA1851. По традиции она начнёт с релиза оверклокерских моделей...

YouTube добавит ИИ-инструменты в Shorts

Видеохостинг YouTube анонсировал интеграцию ИИ-модели для генерации видео от DeepMind — Veo — в сервис для коротких роликов Shorts. ...