Рубрики

Осторожно, искусственный интеллект! Ученые раскрывают о самых опасных схемах мошенничества с ИИ

Поддельный аудио- или видеоконтент является наиболее тревожной частью использования искусственного интеллекта мошенниками. Новое исследование выявило около 20 возможных преступных способов использования ИИ. Они были ранжированы в порядке опасности - в зависимости от вреда, который могут причинить и потенциальной преступной выгоды. Также ученые рассказали, насколько легко будут реализовываться мошеннические схемы и насколько сложно будет их остановить.

Поддельный контент

Эксперты утверждают, что поддельный контент крайне сложно обнаружить. Он может служить различным целям, таким как дискредитация публичной фигуры и мошеннические схемы с целью получения денежных средств.

Также они предоставили список из пяти других преступлений с участием искусственного интеллекта, которые вызывают серьезную обеспокоенность, ведь их трудно обнаружить. Ученые говорят о нарушениях в работе систем, контролируемых ИИ, чтобы получить информацию в интернете для масштабного шантажа. Кроме того, эксперты обеспокоены возможностью создания поддельных новостей с использованием систем ИИ.

Исследования

Из научных статей и новостей, а также из современной литературы исследователи выбрали 20 преступлений, связанных с искусственным интеллектом. Затем они пригласили 31 человека с опытом работы в области ИИ для двухдневного обсуждения. Специалисты оценили всю серьезность потенциальных преступлений. Участниками исследования стали представители науки, экономического сектора, полиции, правительства и органов внутренней безопасности.

Преступления средней степени опасности включали в себя продажу предметов и услуг, а также проверку безопасности и целевую рекламу.

Преступления, вызывающие незначительную обеспокоенность, включали мелких роботов, которые проникали в учреждения, используя почтовые ящики или кошачью дверь.

Нашли нарушение? Пожаловаться на содержание