Гражданин Кении Дункан Окиндо рассказал агентству, что его заманили в Таиланд, пообещав работу, но вместо этого он был похищен и четыре месяца провел в «мошенническом лагере», где содержались сотни людей и под угрозой насилия вынуждены были заниматься интернет-мошенничеством. По его словам, многие из работников использовали ChatGPT для создания правдоподобных ответов в переписках с жертвами.
Как пояснил собеседник Reuters, с помощью чат-бота сотрудники лагеря выдавали себя за американских инвесторов и предпринимателей, искусственный интеллект помогал им использовать местные выражения. Целью становились в основном риелторы из США, которых убеждали вложить деньги в фиктивные криптовалютные проекты. По словам Дункана Окиндо, ChatGPT использовался и для поиска информации на ходу: ответы на вопросы о криптовалюте или рынке жилья в США помогали поддерживать разговор и вызывать доверие у собеседников.
В OpenAI отметили, что предпринимают меры для предотвращения мошеннического использования ChatGPT: модель отклоняет запросы, противоречащие установленным правилам, а специалисты компании ведут мониторинг и блокируют нарушителей.
В середине августа Reuters сообщил, что внутренние стандарты Meta (признана в России экстремистской, ее деятельность запрещена) разрешали чат-ботам компании вести романтические переписки с детьми. После запроса агентства Meta убрала эти положения и заявила, что пересматривает свои правила. Там подчеркнули, что подобные диалоги с детьми никогда не должны были быть разрешены, отметив, что приведенные в стандартах примеры и примечания были «ошибочными». При этом чат-боты Meta могут вести аналогичные разговоры со взрослыми, что уже привело к трагическим последствиям для отдельных пользователей, обратил внимание Reuters.
Больше новостей читайте в нашем телеграм-канале @expert_mag