Поддельный аудио- или видеоконтент является наиболее тревожной частью использования искусственного интеллекта мошенниками. Новое исследование выявило около 20 возможных преступных способов использования ИИ. Они были ранжированы в порядке опасности - в зависимости от вреда, который могут причинить и потенциальной преступной выгоды. Также ученые рассказали, насколько легко будут реализовываться мошеннические схемы и насколько сложно будет их остановить.
Поддельный контент
Эксперты утверждают, что поддельный контент крайне сложно обнаружить. Он может служить различным целям, таким как дискредитация публичной фигуры и мошеннические схемы с целью получения денежных средств.
Также они предоставили список из пяти других преступлений с участием искусственного интеллекта, которые вызывают серьезную обеспокоенность, ведь их трудно обнаружить. Ученые говорят о нарушениях в работе систем, контролируемых ИИ, чтобы получить информацию в интернете для масштабного шантажа. Кроме того, эксперты обеспокоены возможностью создания поддельных новостей с использованием систем ИИ.
Исследования
Из научных статей и новостей, а также из современной литературы исследователи выбрали 20 преступлений, связанных с искусственным интеллектом. Затем они пригласили 31 человека с опытом работы в области ИИ для двухдневного обсуждения. Специалисты оценили всю серьезность потенциальных преступлений. Участниками исследования стали представители науки, экономического сектора, полиции, правительства и органов внутренней безопасности.
Преступления средней степени опасности включали в себя продажу предметов и услуг, а также проверку безопасности и целевую рекламу.
Преступления, вызывающие незначительную обеспокоенность, включали мелких роботов, которые проникали в учреждения, используя почтовые ящики или кошачью дверь.
Нашли нарушение? Пожаловаться на содержание