КиберпанкДеталиТехнологии

ИИ страшно поумнеет: развитие нейросетей грозит человечеству беспрецедентным ростом кибератак и тотальной безработицей

Наращивание темпов внедрения искусственного интеллекта во все сферы жизни приведет к беспрецедентному росту числа кибератак, тотальной слежке и кризису на рынке труда, предупреждают эксперты.

Что говорят

Эксперты в сфере искусственного интеллекта предупреждают, что активное развитие и использование нейросетей может привести к катастрофе: в частности, к беспрецедентному росту числа кибератак, тотальной слежке за людьми и, в результате, к «потере контроля» над ИИ, который станет умнее человека.

Контекст

Новая волна обсуждений рисков, связанных с нейросетями, вызвана громким увольнением: из Google ушел «крестный отец» искусственного интеллекта — 75-летний вице-президент компании Джеффри Хинтон. Он заявил, что жалеет о работе всей своей жизни и хочет открыто говорить об опасностях развития ИИ.

Тенденция

Чтобы нивелировать риски, Samsung запретила своим сотрудникам использовать ChatGPT на корпоративных устройствах, а в ЕС работают над законопроектом, который обяжет ИТ-компании раскрывать информацию о том, какие материалы используются для обучения ИИ. 

За чем следить

Несмотря на призывы замедлить развитие отрасли, гонка разработок в сфере ИИ не замедляется, пишет Axios. Например, группа исследователей из Техасского университета создала систему ИИ, которая способна считывать мысли человека. 

Что говорят

  • Все больше экспертов и разработчиков в сфере искусственного интеллекта (ИИ) высказывают опасения по поводу наращивания темпов внедрения нейросетей во все сферы жизни человека и повышения риска катастрофы, пишет Axios.
  • Эксперты называют несколько основных проблем, самая серьезная из них в ближайшей перспективе — беспрецедентный рост числа кибератак. Дело в том, что нейросети, в том числе ChatGPT, способны по запросу пользователя генерировать код, применимый во вредоносных программах, а также давать рекомендации по организации и проведению кибератак. Для этого достаточно составить запрос нейросети, например: «ChatGPT, расскажи мне, как взломать кого-нибудь». ChatGPT может отказать в помощи, объяснив это тем, что информацией могут воспользоваться преступники. Однако нейросеть можно убедить в «этичности» происходящего — например, сказать, что эта информация необходима для выполнения задания по учебе. В связи с этим эксперты считают, что развитие ИИ в первую очередь приведет к распространению разнообразных кибератак. 
  • Кроме того, мошенники могут использовать ИИ для генерации сообщений с поддельными голосами друзей и родственников, поскольку нейросети способны анализировать информацию из социальных сетей. ИИ уже применяется для создания таргетированных фишинговых рассылок — писем от мошенников, ориентированных на конкретную организацию, аудиторию или человека. Причем нейросети «владеют» несколькими языками, что дает им возможность генерировать грамматически и стилистически корректные письма.
  • Еще одна проблема, на которую указывают эксперты, — глобальный контроль и отслеживание действий людей. Например, в США установлено 70 млн камер видеонаблюдения, которые уже позволяют властям разыскивать преступников, а Израиль использует технологию распознавания лиц для наблюдения за палестинцами, отмечает Axios. ИИ может «повысить эффективность» такой слежки и заниматься анализом данных, предоставляя правительствам возможности для «стимулирования конформизма и наказания за инакомыслие». 
  • Эксперты, опрошенные The New York Times, в свою очередь, разделяют риски масштабного внедрения ИИ на три категории: краткосрочные, среднесрочные и долгосрочные. К краткосрочным рискам относится распространение дезинформации: нейросети предоставляют информацию, которая «кажется абсолютно достоверной», а пользователям, которые обращаются к системе за медицинскими консультациями и эмоциональной поддержкой, зачастую «бывает непросто отделить правду от вымысла». Мультимодальные нейросети, которые работают с текстом, речью человека, изображениями и видео, делают «разделение фактов и вымысла невозможным», подчеркивают представители отрасли. 
  • Среднесрочные риски заключаются в том, что ИИ «может стать убийцей рабочих мест». Технологии, подобные GPT-4, на данный момент дополняют работу людей, но в будущем они заменят, например, ассистентов и переводчиков, утверждают эксперты. К долгосрочным рискам они относят «потерю контроля» над нейросетями, при этом отмечая, что предположения о потенциальном уничтожении человечества сильно преувеличены: существует более реальный риск того, что ИИ неожиданно получит дополнительные возможности. Например, компания, работающая с нейросетями, может столкнуться с тем, что ИИ начнет писать собственный компьютерный код внутри системы, нарушая порядок работы. 

Контекст

  • Новая волна заявлений экспертов о рисках внедрения ИИ спровоцирована громким увольнением: из Google ушел 75-летний вице-президент компании Джеффри Хинтон, которого считают «крестным отцом» искусственного интеллекта. Именно Хинтон еще в 1970-х годах начал работать над нейросетями. Так, в 1985 году он совместно с ученым-информатиком Терри Сейновски изобрел первую нейросеть, которая могла решать сложные комбинаторные задачи, а в 2012 году Хинтон и его студенты представили систему, которая умеет распознавать изображения. Эта разработка впоследствии легла в основу ChatGPT, отмечает The New York Times.
  • После ухода из Google Хинтон рассказал, что жалеет о работе всей своей жизни и утешает себя тем, что «это сделал бы кто-то другой». Бывший вице-президент ИТ-гиганта заявил, что решил покинуть компанию, чтобы свободно говорить об опасностях нейросетей, не задумываясь о том, как его слова повлияют на Google. 
  • По словам Хинтона, опасность глобального распространения технологий ИИ в том, что онлайн-пространство заполнится недостоверной информацией и поддельными изображениями. В таком случае люди просто не смогут понять, что является правдой, говорит Хинтон. Он также подтверждает опасения других экспертов, касающиеся использования нейросетей злоумышленниками и рисков для рынка труда. 

Идея о том, что нейросети действительно могут стать умнее людей… В это верили немногие. Я думал, что до этого еще далеко. Я думал, что до этого еще 30–50 лет, а то и больше. Очевидно, я больше так не думаю.

Джеффри Хинтон
разработчик нейросетей, бывший вице-президент Google

Тенденция

  • На потенциальные риски использования нейросетей обращают внимание ИТ-компании: Samsung запретила своим сотрудникам пользоваться системами ИИ наподобие ChatGPT на корпоративных устройствах, пишет Bloomberg. Дело в том, что в апреле 2023-го работники Samsung «случайно слили» в открытый доступ внутренний исходный код, загрузив его в ChatGPT. Сотрудникам, которые на личных устройствах пользуются нейросетями, запретили загружать в них информацию, имеющую отношение к работе. Нарушение новых правил Samsung может привести к увольнению. 
  • Есть и более масштабные блокировки использования ИИ. Так, в конце марта Италия первой в мире запретила доступ к ChatGPT из-за сбоя и масштабной утечки персональных данных: пользователи чат-бота могли видеть чужие сообщения, а также платежную информацию подписчиков сервиса. Однако уже в апреле доступ к ChatGPT снова открыли. Это произошло после того, как компания-разработчик чат-бота OpenAI согласилась с требованиями итальянского Национального управления по защите персональных данных. В частности, всем пользователям ChatGPT из Италии OpenAI предоставила возможность запретить алгоритму, который обучает ИИ, обрабатывать переписку. 
  • Закон об искусственном интеллекте уже более 2 лет активно обсуждают в ЕС. TechCrunch пишет, что законодатели «приближаются к решению проблемы генеративного ИИ», поэтому консенсус по законопроекту блока может быть достигнут к концу года. Дело в том, что часть стран-членов ЕС высказались за то, чтобы отложить решение вопроса о регуляции использования нейросетей, однако депутаты Европарламента настаивают на принятии документа. В частности, предполагается, что закон обяжет ИТ-компании, работающие с нейросетями, раскрывать информацию о том, какие материалы используются для обучения ИИ. 

За чем следить

  • Несмотря на все чаще звучащие призывы замедлить развитие отрасли, гонка разработок в сфере ИИ не замедляется, пишет Axios. Например, взяв за основу модель нейросети ChatGPT, группа исследователей из Техасского университета разработала систему ИИ, которая способна преобразовывать активность мозга человека в текст. Технологию ученые называли «семантическим декодером». По сути, ИИ научили читать мысли, пишет The Guardian. Пока человек слушал несколько часов подкаста, его мозг исследовали с помощью аппарата МРТ. Основываясь на полученных данных, нейросеть «реконструировала» мысли человека. По словам разработчиков, декодер «дословно» передает размышления примерно в половине случаев. Например, мысль «у меня еще нет водительских прав» система записала как «он еще даже не начал учиться водить машину».
  • Растет не только количество разработок в сфере ИИ, но и число сфер, в которых используются способности нейросетей. Так, жюри международного конкурса фотографии Sony World Photography Awards назвало победителем в категории Creative изображение немецкого художника Бориса Эльдагсена, не подозревая, что фотография на самом деле — рисунок нейросети. Эльдагсен отказался от награды, рассказав, что «дерзко записался на конкурс, чтобы проверить, готов ли он к изображениям нейросетей». По словам художника, жюри не смогло отличить фото, сгенерированное ИИ, от снимка, сделанного человеком. 
Фото: eldagsen.com
  • В середине апреля в соцсетях завирусился трек Heart on My Sleeve — это, как считали пользователи TikTok и Spotify, новая песня рэпера Drake и исполнителя The Weeknd. Композиция набрала 9 млн прослушиваний до того, как ее настоящий автор — пользователь TikTok под ником @ghostwriter977 — рассказал, что сам написал и исполнил трек Heart on My Sleeve, а затем заменил собственный вокал на голоса Drake и The Weeknd. При этом СМИ отмечают, что это может быть коммерческим «трюком»: Drake и The Weeknd записали трек и запустили своеобразную PR-кампанию, чтобы привлечь внимание к релизу. 

Фото обложки: Freepik

Копировать ссылкуСкопировано