Мы уязвимы?
То, что многие конторы, делающие ИИ, хотели бы зайти на рынок 18+, — это уже не новость. Компании делают чат-боты эмпатичными, чтобы удерживать внимание, дают поддержку, помощь — лишь бы вы подольше остались на сайте или в приложении. Но что же за этим кроется?
А кроются всё те же самые риски. Чем ближе продукт к человеку, тем опаснее его сбои. Ошибка в рекомендательной ленте — это раздражение. Ошибка в разговоре, который имитирует близость. У ChatGPT, например, оказался фетиш на инцест и насилие — из-за этого OpenAI отложили выпуск режима, на котором настаивает лично Сэм Альтман. Чат-бот без запроса начинал уводить диалог в сторону сексуального насилия и сценариев, связанных с инцестом.
Читать об этом новость — смешно. А получить такой ответ от системы, которая собирает о тебе гигантские массивы данных, — уже не очень. Система очень быстро врывается во все сферы нашей жизни, и теперь она залезает в постель. Вернее, даже не так: она залезает в голову в тех местах, где ей быть не нужно. Любовь — это история про людей, а когда система создаёт все условия для того, чтобы ты был один, а потом продаёт костыль в виде чат-бота, который может тебя развратить, начинается какая-то хрень.
Всё это — продолжение процесса продажи на рынке зависимости. Сэм Альтман (да и другие) начинает загонять нас в ловушку. Это ловушка, в которой рано или поздно придётся платить, чтобы голос твоего чат-бота оставался таким же сексуальным, и бесплатная версия уже не канает.
Это умение подстраиваться под уязвимости, а не под интересы и запросы. Для меня это безумно страшно. Особенно учитывая, что вытянуть информацию, влиять на человека и его мнение, чьи уязвимости на ладони, гораздо проще. В системе почти не осталось мест, куда бы не внедрились алгоритмы, и я говорю, что мы уязвимы. В конце мы и не заметим, как отношения и одиночество будут доступны только по подписке.