Понемножку обо всем
219,368 4,060
 

  Хранитель Храма ( Слушатель )
29 мар 2023 19:50:50

Маск и Возняк призывают к паузе в разработке "более мощного" ИИ, чем GPT-4

новая дискуссия Статья  121

Маск и Возняк призывают к паузе в разработке "более мощного" ИИ, чем GPT-4
Сегодня




ТАЙЛЕР ДЕРДЕН
29 МАРТА 2023 Г.
Илон Маск, Стив Возняк, пионер ИИ Йошуа Бенгио и другие подписали открытое письмо, призывающее к шестимесячной паузе в разработке новых инструментов ИИ, более мощных, чем GPT-4, технология, выпущенная ранее в этом месяце стартапом OpenAI при поддержке Microsoft, сообщает Wall Street Journal.




Современные системы ИИ становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все задания, включая те, которые выполняются? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти численностью, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным техническим лидерам. Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что их эффект будет положительным, а риски управляемыми. -futureoflife.org
"Мы достигли точки, когда эти системы достаточно умны, чтобы их можно было использовать опасными для общества способами", - сказал Бенгио, директор Монреальского института алгоритмов обучения при Университете Монреаля, добавив: "И мы еще не понимаем".
Их опасения были изложены в письме под названием "Приостановить гигантские эксперименты с ИИ: открытое письмо", которое возглавил Институт будущего жизни - некоммерческая организация, консультируемая Маском.
GPT-4, технология, выпущенная в этом месяце В письме не содержится призыв к прекращению всех разработок в области ИИ, но компаниям настоятельно рекомендуется временно прекратить обучение более мощных систем, чем от стартапа OpenAI, поддерживаемого корпорацией Microsoft. Это включает в себя следующее поколение технологии OpenAI, GPT-5. Представители OpenAI говорят, что они не начали обучение GPT-5. В интервью генеральный директор OpenAI Сэм Альтман сказал, что компания долгое время уделяла приоритетное внимание безопасности при разработке и потратила более шести месяцев на тестирование безопасности GPT-4 перед его запуском. -WSJ
"В некотором смысле, это проповедь для хора", - сказал Альтман. "Я думаю, мы говорили об этих проблемах громче всех, с наибольшей интенсивностью, дольше всех".
Голдман, тем временем, говорит, что до 300 миллионов рабочих мест могут быть заменены ИИ, поскольку "две трети профессий могут быть частично автоматизированы ИИ".
Так называемый генеративный ИИ создает оригинальный контент на основе подсказок человека - технология, которая уже была реализована в поисковой системе Microsoft Bing и других инструментах. Вскоре после этого Google развернул конкурента под названием Bard. Другие компании, включая Adobe, Salesforce и Zoom, представили передовые инструменты ИИ.




"Гонка начинается сегодня", - сказал генеральный директор Microsoft Сатья Наделла в комментариях в прошлом месяце. "Мы собираемся двигаться, и двигаться быстро".
Один из организаторов письма, Макс Тегмарк, который возглавляет Институт будущего жизни и является профессором физики в Массачусетском технологическом институте, называет это "гонкой самоубийц".
"Неудачно называть это гонкой вооружений", - сказал он. "Это скорее гонка самоубийц. Не имеет значения, кто доберется туда первым. Это просто означает, что человечество в целом может потерять контроль над своей собственной судьбой ".
Институт будущего жизни начал работать над письмом на прошлой неделе и первоначально разрешил любому подписывать без проверки личности. В какой-то момент имя мистера Альтмана было добавлено к письму, но позже удалено. Мистер Альтман сказал, что он никогда не подписывал письмо. Он сказал, что компания часто координирует свои действия с другими компаниями ИИ по стандартам безопасности и обсуждает более широкие проблемы. “Есть работа, которую мы не делаем, потому что мы не думаем, что пока знаем, как сделать ее достаточно безопасной”, - сказал он. “Так что да, я думаю, что есть способы замедлить работу по нескольким осям, и это важно. И это часть нашей стратегии ”. - WSJ
Маск - один из первых основателей и финансовых спонсоров OpenAI, и Возняк некоторое время открыто говорили об опасностях ИИ.
"Существуют серьезные проблемы с риском ИИ", - написал он в Твиттере.
Главный специалист Meta по ИИ Ян Лекун не подписал открытое письмо, потому что он говорит, что не согласен с его предпосылкой (без уточнения).
Конечно, некоторые уже предполагают, что у подписантов могут быть скрытые мотивы.
— альфа енот (@thealpharaccoon) 29 марта 2023 Прочитайте это как “мораторий на шесть месяцев или более дал бы мне время скопировать и / или создать что-то подобное и не остаться в стороне”https://t.co/MsO0PwkJON


И многое другое на

Дзен - Хроники Хаоса
  • +0.01 / 1
  • АУ
ОТВЕТЫ (0)
 
Комментарии не найдены!