Posted inНовостиПоследние новостиТехнологии

Специалист по анализу данных компании Kaspersky и расцвет дипфейков: «Нам нужно переосмыслить то, чем мы делимся»

По словам ведущего специалиста по анализу данных компании "Kaspersky", ОАЭ являются одним из лидеров в области искусственного интеллекта, однако ответственное и этичное использование ИИ имеет решающее значение, особенно в условиях, когда во всем мире существуют ИИ дипфейки, риски для конфиденциальности и угрозы кибербезопасности
Дипфейки чаще всего ассоциируются с манипуляциями с видео, в которых лица людей в уже существующих видео изменяются или заменяются полностью

В условиях, когда "фальшивки", претендующие на личности таких знаменитостей, как Тейлор Свифт, Том Хэнкс, Скарлетт Йоханссон и Рашмика Манданна, генерируют откровенный и фальшивый контент, всем пользователям Интернета важно быть осторожными с тем, чем они делятся в сети, сообщил представитель "Касперского" в эксклюзивном интервью Arabian Business.

Нам нужно переосмыслить то, чем мы делимся", - пояснил ведущий специалист по изучению данных компании "Касперский" Владислав Тушканов, добавив, что с точки зрения этики частные лица и компании не должны брать личные данные человека для создания Deepfake без его согласия.

Комментарии Тушканова прозвучали в кулуарах проходящего в Малайзии "Уикенда кибербезопасности Касперского 2024".

Тейлор Свифт и другие знаменитости стали жертвами дипфейков

Дипфейки, которые представляют собой тип синтетических медиа, созданных с помощью технологий искусственного интеллекта, в частности алгоритмов глубокого обучения, сегодня стремительно растут.

Чаще всего они ассоциируются с манипуляциями, когда лица людей в существующих видеозаписях заменяются или изменяются таким образом, чтобы казалось, что они говорят или делают то, чего не делали.

Технология также может быть использована для создания реалистичных голосовых имитаций или синтетических образов несуществующих людей. Однако это может быть использовано как в положительном, так и в отрицательном ключе, говорит Тушканов.

"Есть разные варианты применения этой технологии, где она может быть полезной и благотворной. Например, ее можно использовать в образовании, чтобы синхронизировать губы оратора на переведенном видео с переводом, чтобы сделать видео более естественным, более плавным. Технология также может использоваться в сфере развлечений, но также может применяться в злонамеренных целях, и самые очевидные из них - мошенничество и фишинговые атаки.

"Например, вы можете взять лицо Элона Маска и сгенерировать его голос в видео, где людей просят перейти по ссылке, чтобы получить бесплатную криптовалюту", - заявил собеседник.

Тушканов пояснил, что когда взламывается учетная запись пользователя в системе обмена сообщениями или социальной сети, возникает потенциальная "угроза", при которой злоумышленник получает доступ к голосовым записям, хранящимся в этой учетной записи.

Мошенники могут использовать этот доступ, создавая поддельные голосовые сообщения и рассылая их друзьям и родственникам владельца аккаунта.

Выдавая себя за владельца аккаунта, злоумышленник может обманом заставить получателей перевести средства на банковский счет мошенника, что приведет к финансовым потерям жертв.

Технология Deepfake может применяться для создания реалистичных голосовых имитаций или синтетических изображений несуществующих людей. Изображение: Shutterstock

"Особенно рискованным среди киберпреступников является взлом аккаунтов и отправка сообщений другим пользователям с просьбой перейти по вредоносной ссылке или перевести деньги. Как правило, создание Deepfake не является нормальным явлением, даже в шутку, поскольку, как вы, вероятно, знаете, первое использование deepfakes было связано с созданием порнографических материалов с участием известных людей. Дипфейки могут использоваться для шантажа, их можно использовать для унижения людей, чтобы устроить кибербуллинг и т. д. Таким образом, существуют глубокие, например, этические сложности, возникающие при их использовании", - сказал он.

Не существует "стопроцентной защиты" от дипфейков

Тушканов из "Касперского" добавил, что в силу определенных алгоритмов от Deepfake никогда нельзя быть защищенным на 100 процентов.

"К сожалению, чтобы создать дипфейк, достаточно одной фотографии человека. Однако существуют как хорошие, так и плохие фейки. Хорошие - это те, которые создаются профессиональными VFX-художниками, с ресурсами, с командой, а также с помощью профессионального имперсонатора, чтобы придать Deepfake дополнительную убедительность. Но это не то, что сделал бы киберпреступник низкого уровня, потому что на его выходе были бы заметны признаки - например, артефакты вокруг волос, следы и т. д., которые подтверждают, что это мошенничество", - заключил он.

Стоит ли использовать генеративный ИИ в повседневной жизни?

Тушканов ответил, что да, но нужно знать и понимать, где стоит применять эти технологии.

Например, если мне нужно обдумать какую-то идею, я могу обратиться к чатботу и сказать: "Теперь ты должен раскритиковать все мои идеи", или вы можете попросить чатбота предоставить вам опыт интервьюера, если хотите, чтобы вы прошли собеседование для получения новой работы. Он также может устроить вам стресс-тест, если вы хотите сдать экзамены, потому что именно в этом эти модели хороши - они проглотили множество профессиональной и учебной литературы. Они могут оценивать ваши эссе, вычитывать ваши тексты. В общем, они могут делать все, что связано с созданием текста, созданием изображений для использования.

"Однако важно отметить, что это касается только тех областей, где нет большой цены, которую придется заплатить, если информация окажется неверной. Эти модели могут придумывать информацию, которая не соответствует действительности. Это называется галлюцинациями", - сказал он, добавив, что если вы используете эти инструменты для медицинских, юридических или финансовых консультаций, они могут "придумать" неверную информацию.

Модели Deepfake создаются с помощью методов глубокого обучения и широко используются в различных приложениях, от чат-ботов до виртуальных помощников. Изображение: Shutterstock

Что такое галлюцинации ИИ?

По словам Тушканова, технология ИИ не совершенна, и он пояснил, что галлюцинации, также известные как генеративные галлюцинации или модельные галлюцинации, относятся к явлению, когда модели ИИ, такие как генеративные языковые модели, выдают результаты, которые нереальны, бессмысленны или не связаны с входными данными или поставленной задачей.

Другими словами, модели ИИ могут генерировать контент, который кажется достоверным и последовательным, но не имеет фактической точности или контекста. Во многом это связано с целым рядом факторов, включая погрешности в обучающих данных, ограничения в архитектуре модели или недостаточную тонкую настройку.

Он также предупредил, что конфиденциальность может быть нарушена.

"[Приложения ИИ] имеют политику конфиденциальности, в которой четко прописано, что может произойти с исходными данными. Обычно там говорится, что данные будут использоваться для переобучения модели, и реальные люди, асессоры, специалисты по контенту, который используется для обучения моделей машинного обучения, могут видеть все, что вы пишете, или вы отказываетесь от сбора данных в принципе", - пояснил он.

Не загружайте программы по первой ссылке в Google

Люди, которые пытаются использовать эти технологии, могут стать жертвами киберпреступников, желающих нажиться на популярности подобных инструментов.

"Мы уже видели примеры вредоносных программ, маскирующихся под клиенты charge pretty, верно? Они говорят, что вы получите много бесплатных кредитов, "достаточно лишь загрузить этот клиент". Однако, когда люди скачивают этот клиент, их системы заражаются вредоносным ПО, что делает его использование опасным. Предприятия должны понимать эти риски, такие как риски конфиденциальности, интеллектуальных прав и другие, а также не загружать программное обеспечение по первой ссылке в Google", - заявил он.

Самое главное, сказал он, что компании должны "обучать и информировать сотрудников".

"Не размещайте конфиденциальные данные, не размещайте данные частных клиентов или любую чувствительную информацию, потому что это может быть нарушением правил конфиденциальности". Кроме того, компании могут внедрить некоторые шлюзы, решения по фильтрации, чтобы обнаружить, потенциальную утечку данных. Однако я не думаю, что частичный запрет на использование или абсолютный запрет на использование LLM (искусственного интеллекта) на рабочем месте эффективен, потому что если это действительно помогает людям выполнять их работу, они будут использовать это на своих телефонах, они будут использовать на своих персональных компьютерах, они будут делать все, что угодно, потому что это помогает экономить деньги, экономить время и экономить усилия".

Компаниям рекомендуется внедрять шлюзы, решения для фильтрации и защиты данных, чтобы держать киберпреступников на расстоянии. Изображение: Shutterstock

Находятся ли рабочие места под угрозой из-за появления искусственного интеллекта?

Тушканов пояснил, что некоторые профессии подвержены влиянию этих инструментов в большей степени, чем другие, добавив, что больше всего страдают те, кто работает с повторяющимися задачами или текстами. "Вы можете отдать на подобный аутсорсинг некоторые рутинные, скучные задачи, чтобы повысить креативность", - сказал он.

"Очень многие руководители, с которыми мы общались в ходе опросов, заявили, что знают о том, что их сотрудники используют технологии, связанные с ChatGPT. И они в основном пытаются либо ограничить это, либо вообще запрещают, но в результате это сказывается на производительности труда", - добавил Тушканов.

Он объяснил, что компании не могут просто заменить своих сотрудников искусственным интеллектом, поскольку все еще существует необходимость в человеческой ответственности.

В случае с журналистикой он считает, что эта профессия пострадает в наименьшей степени, поскольку журналисты сами решают, какие вопросы задавать.

"Художники могут пострадать из-за алгоритмов генерации изображений", - добавил он, пояснив, что очень важно рассматривать ИИ как инструмент, а не как вариант конечной замены людей.

Чем больше интернета мы используем, тем больше мы нуждаемся в кибербезопасности

Сегодня, когда такие новые технологии, как искусственный интеллект и метавселенная, стали нарицательными словами, каждому пользователю и бизнесу крайне необходимо инвестировать в кибербезопасность.

"Кибербезопасность очень важна, и чем больше у нас устройств или чем больше способов доступа к интернет-контенту, тем важнее иметь хорошие, надежные основы кибербезопасности", - сказал Тушканов.

"Тенденции 2023 года сохранятся, тем более что у нас есть очень мощные и способные модели фундамента - все они в настоящее время совершенствуются. Однако существует также необходимость в кибербезопасности.  Например, если у нас есть имеется "третье" устройство, которое мы используем для доступа к контенту, например VR-гарнитура, возможно, и ее также необходимо защитить", - пояснил он.

ОАЭ "очень продвинулись" в области искусственного интеллекта

Отвечая на вопрос о том, должны ли правительства внедрять модели ИИ и стратегии Metaverse, чтобы получить максимальную выгоду, Тушканов пояснил, что на правительствах лежит большая ответственность, поскольку их решения могут иметь далеко идущие последствия для людей. По его словам, для правительств "крайне важно" уделять приоритетное внимание этическим аспектам внедрения ИИ.

Кроме того, Тушканов добавил, что еще одним важным аспектом является прозрачность, когда правительства должны информировать общественность о том, что решения принимаются системами искусственного интеллекта автоматически.

Если решение принимается автоматически, у людей должна быть возможность оспорить его, поскольку "системы машинного обучения не являются непогрешными".

"Они совершают ошибки, и над ними должна быть власть, в которой есть человек, отвечающий за свои возможные ошибки", - считает Тушканов.

Однако ОАЭ - "очень продвинутая" страна, когда речь идет об искусственном интеллекте, пояснил он. "ОАЭ - одна из немногих стран, у которых есть собственная Большая языковая модель (LLM) Falcon, что является весьма впечатляющим достижением, поскольку данная модель чрезвычайно способна, всеобъемлюща и практична".

LLM - это продвинутая система искусственного интеллекта, обученная на огромных объемах текстовых данных и способная понимать и генерировать человекоподобный текст. Эти модели строятся с помощью методов глубокого обучения и широко используются в различных приложениях, от чат-ботов до виртуальных помощников. Одним из самых популярных типов LLM является ChatGPT от OpenAI.


Наш Telegram - t.me/AB_Russian