Удалите все голосовые сообщения со смартфона! Этим могут воспользоваться мошенники!
Об будущем искусственного интеллекта сегодня очень много разговоров. Но пока каких-то особых разработок для мирной жизни не представлено. Зато мошенники уже во всю научились использовать ИИ в своих корыстных целях …
Недавно на прямой линии с президентом Путиным ему показали его двойника, это образ созданный как раз искусственным интеллектом. И данный факт уже должен насторожить простых людей.
Но пока мошенники пошли более легким путем, и стали использовать ИИ для генерации голосов людей, чтобы потом с помощью подобной уловки вымогать деньги у их знакомых. С таким предупреждением выступило Управление по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД.
Каким образом происходит обман наших граждан? Чтобы получить доступ к образцу голоса, сначала злоумышленники взламывают смартфоны и получают доступ к переписке в мессенджерах Telegram и WhatsApp. После этого они скачивают все голосовые сообщения и уже на их основе, с помощью ИИ, создают новые с новым содержанием.
Дальше они действуют по уже отработанному алгоритму, и рассылают эти сообщения в групповые и личные чаты, где просят у их участников занять деньги. Чтобы все выглядело достоверно, аферисты подкрепляют все сгенерированными голосами, но предлагают поддельные банковские карты с поддельными именами.
Наверняка люди могут повестись на подобный развод, если услышат в трубке знакомый голос. Чтобы исключить подобный сценарий развития, просто удаляйте из истории ваших мессенджеров все голосовые сообщения, и почаще меняйте пароли. Пока более действенного способа противостоять мошенникам не придумано…
Источник фото: pxhere.com