В Юго-Восточной Азии выявлена схема мошенничества с использованием ChatGPT

Фото: DC Studio/Freepik
В Юго-Восточной Азии раскрыта схема, в которой преступные группировки заманивали людей под видом трудоустройства и насильно удерживали их в «мошеннических лагерях», сообщает Reuters со ссылкой историю гражданина Кении Дункана Окиндо, который оказался жертвой трудовой эксплуатации. Представитель кенийской организации по борьбе с торговлей людьми и современным рабством HAART Kenya подтвердил агентству, что Дункан Окиндо был в числе освобожденных из такого лагеря в 2025 году.

Гражданин Кении Дункан Окиндо рассказал агентству, что его заманили в Таиланд, пообещав работу, но вместо этого он был похищен и четыре месяца провел в «мошенническом лагере», где содержались сотни людей и под угрозой насилия вынуждены были заниматься интернет-мошенничеством. По его словам, многие из работников использовали ChatGPT для создания правдоподобных ответов в переписках с жертвами.

Как пояснил собеседник Reuters, с помощью чат-бота сотрудники лагеря выдавали себя за американских инвесторов и предпринимателей, искусственный интеллект помогал им использовать местные выражения. Целью становились в основном риелторы из США, которых убеждали вложить деньги в фиктивные криптовалютные проекты. По словам Дункана Окиндо, ChatGPT использовался и для поиска информации на ходу: ответы на вопросы о криптовалюте или рынке жилья в США помогали поддерживать разговор и вызывать доверие у собеседников.

В OpenAI отметили, что предпринимают меры для предотвращения мошеннического использования ChatGPT: модель отклоняет запросы, противоречащие установленным правилам, а специалисты компании ведут мониторинг и блокируют нарушителей.

В середине августа Reuters сообщил, что внутренние стандарты Meta (признана в России экстремистской, ее деятельность запрещена) разрешали чат-ботам компании вести романтические переписки с детьми. После запроса агентства Meta убрала эти положения и заявила, что пересматривает свои правила. Там подчеркнули, что подобные диалоги с детьми никогда не должны были быть разрешены, отметив, что приведенные в стандартах примеры и примечания были «ошибочными». При этом чат-боты Meta могут вести аналогичные разговоры со взрослыми, что уже привело к трагическим последствиям для отдельных пользователей, обратил внимание Reuters.

Больше новостей читайте в нашем телеграм-канале @expert_mag