Вероятность «сценария Терминатора», вызванного ИИ, близка к НУЛЮ, так утверждает профессор Оксфордского университета, поскольку она говорит о предупреждении, что технология может привести к вымиранию человечества, и это «рекламный ход».
По словам профессора Оксфордского университета, вероятность «сценария Терминатора», вызванного искусственным интеллектом (ИИ), действительно «близка к нулю».
Сандра Вахтер, профессор технологий и регулирования, назвала письмо Центра безопасности ИИ в Сан-Франциско, в котором предупреждалось, что технология может уничтожить человечество, «рекламным ходом».
Письмо, в котором утверждается, что к рискам следует относиться так же серьёзно, как и к пандемиям или ядерной войне, подписали десятки экспертов, в том числе участники ИИ.
Премьер-министр Великобритании Риши Сунак ретвитнул (поделился твитом со своими читателями в Твиттере) ,заявление Центра безопасности ИИ в среду, заявив, что правительство «очень внимательно» его изучает.
Профессор Вахтер назвал риск, упомянутый в письме, «научно-фантастическим фэнтези», и сравнил его с фильмом «Терминатор».
Она добавила: «Есть риски, есть серьезные риски, но не эти риски должны привлекать все наше внимание в данный момент.
«То, что мы видим в этом новом открытом письме, — это научно-фантастическая фантазия, которая отвлекает от проблемы прямо здесь и сейчас.
«Вопросы, связанные с предвзятостью, дискриминацией и воздействием на окружающую среду.
«Весь дискурс строится вокруг чего-то, что может произойти или не произойти через пару сотен лет.
«Вы не можете сделать с этим что-то значимое именно сейчас, так как это так далеко в будущем.
«Но предвзятость и дискриминацию я могу измерить, я могу измерить воздействие на окружающую среду.
«Для охлаждения центра обработки данных среднего размера ежедневно требуется 360 000 галлонов воды — это цена, которую мы должны заплатить.
— Это рекламный ход. Это привлечет финансирование.
«Давайте сосредоточимся на замещении рабочих мест людей. Эти вещи полностью отодвинуты на второй план сценарием Терминатора и это очевидно.
«Что мы знаем о технологиях сейчас, вероятность [вымирания человечества из-за ИИ] близка к нулю.
Приложения ИИ стали вирусными в сети: пользователи размещают поддельные изображения знаменитостей и политиков, а студенты используют ChatGPT и другие «модели изучения языка» для создания эссе университетского уровня.
Но ИИ также может выполнять жизненно важные задачи, такие как алгоритмы анализа медицинских изображений, таких как рентгеновские снимки, сканирование и ультразвук, помогая врачам более точно и быстро выявлять и диагностировать такие заболевания, как рак и болезни сердца.
Заявление было организовано Центром безопасности ИИ, некоммерческой организацией, целью которой является «снижение социальных рисков, связанных с ИИ».
В нем говорится: «Снижение риска исчезновения из-за ИИ должно быть глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».
Старшие руководители таких компаний, как Google DeepMind и Anthropic, подписали письмо вместе с “Крестным отцом ИИ” Джеффри Хинтоном , который ушел со своей работы в Google в начале апреля этого года, заявив, что в чужих руках ИИ может быть использован для причинения вреда людям и может наступить конец человечества.