Грань, за которой использование ИИ становится обманом.
Когда появился чат GPT, я почувствовала себя более безопасно.
Я веду блог, это моё медиа, с помощью которого я влияю на людей. И некоторые вещи, которые я тут пишу, могут быть опасны.
И нет, это не мат, не бикини или шутки про секс, как могла подумать часть моей аудитории.
Один юный гений даже как-то пытался меня шантажировать тем, что сообщит моему депутату, что я его послала, когда он в наглой форме потребовал продать рекламу своему проекту.
Меня тогда это позабавило, потому что сообщать во фракцию, лидер которой с трибуны Государственной Думы посылал членов других фракций, что тебя кто-то послал н•х•й, это всё равно, что пожаловаться в Apple, что тебе продали айфон))
По-настоящему опасные вещи другие: это некорректные полит заявления, которые могут убить карьеру и репутацию.
Например, как заявления Саши Митрошиной с призывом пойти на митинг после начала СВО. И самое опасное, что система такие вещи помнит, что может тебе аукнуться спустя много лет, когда ты уже забыл, что сказал и сделал. В случае Саши, прошло 3 года прежде, чем система напомнила о себе.
Так вот, зная, как работает система, многие вещи, которые я хотела бы сказать, я не говорила, руководствуясь принципом, что лучше не сказать и пожалеть, чем сказать и жалеть.
А теперь в лице чата gpt у меня появилась система безопасности, промпт для которой я сама и написала, которая предсказывает и фильтрует риски с прицелом на 10 лет вперёд. Это даёт мне возможность говорить о том, что было только в заметках, дневниках и в разговорах на кухне.
И теперь даже если через 10 лет какой-то пост всплывет в интервью или в дебатах с человеком, который захочет дискредитировать мою репутацию, я буду знать, что ему ответить.
При этом у меня есть своя этика использования gpt:
— я не выдаю его тексты за свои;
— я интеллектуально не паразитирую на нем, книгах и других авторах. Мои мысли полностью аутентичны и взяты у меня из головы, из моей рефлексии, иногда вдохновлены другими авторами;
— я не использую чат, как костыль для мозга, я использую его как свою комплаенс-службу, которая фильтрует риски.
Но вот что я считаю неэтичным в использовании чата — это пример, что на фото.
Я считаю это халтурным и неуважительным поведением:
— настраивать бот, отвечать людям сообщением ИИ, в котором он пишет автору, как ему отвечать на сообщение пользователей. Это сюр какой-то.
При этом я ничего не имею против использования ИИ для обработки входящего потока и ответа людям при условии, что это не выдается за ответ автора.
— выдавать полностью сгенерированные тексты за свои (пост, под которым был настроен бот, тоже сгенерирован. Т.е. ноль присутствия автора в блоге).
Нам в скором времени только предстоит разобраться в этике использования ИИ, и я почти уверена, что со временем это будет урегулировано на уровне профессиональных стандартов и мейби даже законодательства.
Я за прозрачную и честную этику:
— где понятно, что допустимо (редактировать, проверять, обсуждать идеи),
— а что является обманом и подменой экспертизы.
Поэтому, опережая вопросы:
1. Да, я пользуюсь чатом GPT.
2. Да, я через него редактирую свои тексты.
3. Но ядро — мысли, аналитика, выводы — всегда мои.
Я не выдаю ответы ИИ за свою экспертизу и считаю неэтичным так делать.
Мой подход: ИИ ок, когда он помогает думать, а не думает вместо тебя.
Писи. Я люблю всё новое и технологичное. Желаю процветания и долгих лет жизни создателям ИИ — я считаю, это лучшая технология, что стала доступна нам за последнее время.