Сможет ли ChatGPT поработить человечество: реальные угрозы и мифы

Сможет ли ChatGPT поработить человечество: реальные угрозы и мифы

ChatGPT и подобные ему по степени сложности нейросети или же Искусственный интеллект – главный технический прорыв нашего времени. Возможности их поражают. Но помимо этого человечество стали пугать различными страшилками про ИИ. Якобы он может достичь такого уровня, что сможет принести реальную угрозу людям. Ученые попытались выяснить: так ли это? Их пересказали в РБК.
1. Захват мира ChatGPT

Гипотеза о технологической сингулярности предполагает, что технологический прогресс в определенный момент станет необузданным. Чаще всего это связывают с появлением искусственного интеллекта, обладающего суперинтеллектом, превосходящим человеческий (также известного как "сильный ИИ" или Искусственный Общий Интеллект). Возможные последствия варьируются от порабощения человечества до глобального экономического кризиса. Эту проблему описывают фразой "ИИ приобретет сознание", хотя технически это не совсем точно - искусственный суперинтеллект может достичь сингулярности, не обладая сознанием в человеческом понимании. ChatGPT, отвечая на вопрос о своей способности к этому, указывает на свою лингвистическую природу, ограниченную программированием и встроенными данными.

2. ИИ отнимет работу

Заботы о том, что технологии лишат людей рабочих мест, существуют давно и не без основания. Исторически автомобили убрали извозчиков, технологии привели к исчезновению фонарщиков, операторов лифта, машинистов, телефонистов и многих других профессий. ChatGPT, развиваясь на текущих темпах, представляет реальную угрозу для рабочих мест, особенно в областях работы с естественными языками и программирования. Проблемы с заменой труда ИИ уже столкнулись сотрудники в различных областях, от юриспруденции до дизайна. Аналитики Goldman Sachs в своем отчете от марта 2023 года предполагают, что ИИ может сократить 300 миллионов рабочих мест, в основном в административном секторе и юриспруденции. Возможно, модель в будущем научится имитировать авторский стиль, харизму и создавать глубокие аналитические материалы с неожиданными выводами.

3. Подмена знаний

ChatGPT становится источником проблем для образовательной сферы. Успешно справляясь с университетскими экзаменами по юриспруденции и бизнесу, модель также может помогать в написании школьных сочинений и дипломов. Возникает вопрос о том, стоит ли переходить на формы обучения, исключающие использование нейросетей. Некоторые эксперты считают, что ChatGPT может стать инструментом обучения сам по себе, предлагая новый способ взаимодействия и обучения.
Возможность ChatGPT создавать текст на разные темы открывает широкие возможности для мошенничества, где нейросеть может помочь создать иллюзию экспертизы.

4. Обман со стороны ChatGPT

Одной из серьезных проблем, связанных с ChatGPT, является тенденция к "галлюцинациям" - генерации ответов, не соответствующих реальности. Эта проблема проистекает из ограниченности данных, на которых модель обучена. Кроме того, ChatGPT учится не только на фактических данных, но и на вымышленных историях, мифах, легендах и сообщениях в социальных сетях. В результате модель может порождать ответы, основанные на этих источниках, что может привести к фактическим ошибкам или дезинформации. Разработчики предпринимают шаги по обучению модели фактчекингу и верификации, ограничивают типы данных, на которых она обучается, и разрабатывают методы обнаружения и фильтрации галлюцинаторных ответов.

5. ChatGPT представляет угрозу кибербезопасности

Эта нейросеть несет в себе ряд угроз для цифровой безопасности: она способна создавать вредоносный код, помогать составлять фишинговые письма и сообщения, анализировать данные с преступными намерениями. В конечном итоге, даже данные пользователей ChatGPT могут оказаться под угрозой. Однако ChatGPT может применяться не только для цифровых преступлений, но и для усиления кибербезопасности: написания антивирусов, выявления уязвимостей в коде, распознавания фишинговых писем и так далее.

6. ChatGPT может быть использован людьми для злых целей

В конечном итоге, как и с любым инструментом, решение, как использовать ChatGPT, принадлежит людям. Технологии не являются нейтральными — они несут в себе видение разработчиков и предубеждения, вытекающие из данных. ChatGPT и другие нейросети действительно могут изменить наше восприятие работы, производства и потребления информации. Однако история технологического развития показывает, что человечество способно адаптироваться к изменениям. Похоже, основная опасность сейчас заключается в скорости развития этих технологий. Человечество не успевает осознать полностью ситуацию, разработать подход к использованию этих инструментов, установить регулирование и определить ответственность. Это открывает дверь для возможного злоупотребления ChatGPT. В любом случае, с течением времени люди научатся взаимодействовать с этой технологией, и, хотя все последствия на данный момент непредсказуемы, уже ясно, что образ жизни многих изменится, и люди будут вынуждены учиться новому.

Ранее писали:  Искусственный интеллект - скрытый враг или панацея: что ответили россияне Подытожила сенатор Ирина Рукавишникова. Итак, есть три причины по которым россияне не доверяют искусственному интеллекту. Первая группа опрошенных считают, что нейросети ведут к деградации населения, это 32% людей. Другие 26%считают, что в ИИ могут возникнуть сбои и ошибки. 23% граждан доверяют только людям.
Искусственный интеллект в России: на развитие ИТ-технологий выделяют огромные деньги Заместитель Премьер-министра Российской Федерации, Дмитрий Чернышенко объявил о следующих важных инициативах:
1. Премьер-министр России, Михаил Мишустин, запланировал провести стратегическую сессию по развитию искусственного интеллекта до конца сентября. На этом мероприятии будут обсуждены и утверждены ключевые аспекты стратегии развития данной отрасли до 2030 года.
Искусственный интеллект пока учится: что будет дальше? Совсем недавно мы, в большинстве своем сами того не зная, проснулись в другой реальности, в ином мире. То самое цифровое будущее наступило гораздо быстрее, чем ожидалось. И складывается впечатление, что где-то снесены последние шлюзы, перекрывавшие выпуск в свет совершенно фантастичных технологий, и в первую очередь — потенциально опасных для каждого человека.