По прогнозам специалистов в области кибербезопасности, первые случаи такого мошенничества могут проявиться уже в ближайшие месяцы, сообщает РБК. Автоматизированные системы на базе продвинутых языковых моделей способны самостоятельно вести сбор средств, анализировать данные и принимать решения. Их потенциал доказан успешным экспериментом в США, где ИИ-агенты некоммерческой компании Sage всего за месяц собрали две тысячи долларов.
Особую опасность представляет способность ИИ создавать высококачественные подделки и автоматизировать мошеннические схемы. Как отмечает директор по цифровым технологиям «Ростелекома» Роман Хазеев, главная угроза заключается в способности ИИ быстро генерировать и распространять контент, привлекающий внимание широкой аудитории. Ещё одну опасность специалисты видят в возможностях ИИ-систем сканировать соцсети и выявлять людей в большей степени предрасположенных к сопереживанию и эмоционально уязвимых, на которых и будет направлен соответствующий контент.
Мнения экспертов разделились: некоторые считают массовое использование ИИ мошенниками маловероятным из-за встроенных систем защиты, в то время как другие предупреждают о растущих рисках. Хотя громких случаев пока не зафиксировано, уже известны примеры использования нейросетей в телефонных аферах для создания поддельных голосовых сообщений.

Фото: ru.freepik.com
Благотворительные фонды России пока избегают применения ИИ для сбора пожертвований, отдавая предпочтение проверенным методам работы с донорами. Некоммерческие организации ограничиваются использованием искусственного интеллекта только для оптимизации внутренних процессов, сохраняя личное взаимодействие с благотворителями.
В России в ближайшее время может появится законопроект о регулировании ИИ, который сейчас обсуждается рабочей группой экспертов и участников рынка. Мы рассказывали о нём подробнее.