Поговорите с детьми об ИИ: шесть вопросов, которые стоит обсудить

Друзья, с момента основания проекта прошло уже 20 лет и мы рады сообщать вам, что сайт, наконец, переехали на новую платформу.

Какое-то время продолжим трудится на общее благо по адресу https://n-n-n.ru.
На новой платформе мы уделили особое внимание удобству поиска материалов.
Особенно рекомендуем познакомиться с работой рубрикатора.

Спасибо, ждём вас на N-N-N.ru

Блог компании VK. Автор оригинала: Rhiannon Williams, Melissa Heikkilä. Перевод – Лена Шпрингер. ИИ, и в том числе ChatGPT, активно входит в нашу жизнь. Сейчас многие взрослые уже освоились с технологией, а школы решили исследовать, как использовать системы ИИ для обучения детей важному навыку — критическому мышлению.

Но и в школе, и в жизни дети сталкиваются не только с чат-ботами. Искусственный интеллект проникает всюду: он рекомендует нам видео на Netflix, помогает Alexa отвечать на вопросы, управляет любимыми интерактивными фильтрами в Snapchat и способами разблокировки смартфона.

Команда VK Cloud перевела статью о том, почему детям важно знать об ИИ как можно больше и понимать принципы работы этих систем. В статье раскрывается, что важно рассказать об ИИ детям — хотя и взрослым это будет полезно.

1. Помните: ИИ вам не друг

Для чего созданы чат-боты? Правильно, чтобы болтать. ChatGPT отвечает на вопросы в дружелюбной разговорной манере, и из-за этого школьникам легко забыть, что они взаимодействуют с системой ИИ, а не с близким другом. Поэтому люди склонны верить чат-ботам, а не относиться к их предложениям скептически.

«Чат-боты очень правдоподобно представляются сочувствующим собеседником, но они просто имитируют человеческую речь из данных, собранных в интернете, — говорит Хелен Кромптон (Helen Crompton), профессор Университета Олд-Доминион, специализирующаяся на цифровых инновациях в образовании. — Нужно напоминать детям, что не следует предоставлять системам вроде ChatGPT конфиденциальную информацию о себе, потому что всё это попадает в большую базу данных. А если ваши данные туда попали, удалить их практически невозможно. Может, их будут использовать, чтобы ИТ-компании больше зарабатывали на вас без вашего согласия, а в худшем случае они попадут в руки хакерам».

2. Модели ИИ не замена поисковым системам

Большие языковые модели хороши ровно настолько, насколько хороши данные, с помощью которых их обучали. Чат-боты без колебаний выдают в ответ на вопросы тексты, которые выглядят весьма правдоподобно. Но это не значит, что предоставляемая ими информация всегда оказывается правильной и достоверной. Кроме того, языковые модели ИИ «любят» представлять информационные вбросы как факты. А в зависимости от того, где они взяли данные, они могут сохранять и распространять необъективность и потенциально опасные стереотипы. Следует воспринимать ответы чат-ботов так же, как и любую другую информацию, которую можно найти в интернете, — критически.

«Эти инструменты не транслируют всеобщую точку зрения: то, что они нам сообщают, основано на данных, на которых они учились. Эта информация не отражает взгляд тех, кто не пользуется интернетом, — объясняет Виктор Ли, доцент Stanford Graduate School of Education, который создал сайт с бесплатными ресурсами ИИ для старшеклассников. — Ученикам стоит взять паузу и задуматься, а не бездумно кликать или репостить всё без разбору. Нужно критически относиться к тому, что мы видим и во что мы верим, ведь велика вероятность, что это может оказаться фейком».

Нас так и тянет обращаться с запросами к чат-ботам. Но они не могут заменить Google или другие поисковые системы, отмечает Дэвид Смит, профессор образования в области биологических наук в Университете Шеффилд Халлам (Великобритания), который учит студентов разбираться в сценариях применения ИИ в обучении. Не стоит принимать за чистую монету всё, что говорят большие языковые модели, объясняет он. И добавляет: «Какой бы ответ вы ни получили, его придётся перепроверить».

3. Учителя могут обвинить вас в использовании ИИ, когда вы на самом деле обошлись без него

Примечание переводчика: этот раздел больше актуален для США и Европы, но сейчас уже применим в некоторых крупных вузах России, а в будущем может пригодиться всем.

Генеративный ИИ пошёл в массы, и теперь в работе преподавателей возникла серьёзная проблема: как понять, где студенты используют ИИ для выполнения заданий? Множество компаний выпустили решения, якобы позволяющие определить, написан ли текст человеком или ИИ. Но проблема в том, что такие инструменты оценки текста весьма ненадёжны, их очень просто обмануть. Есть много примеров, когда преподаватели ошибочно принимали сочинения студентов за работу ИИ.

Обязательно ознакомьтесь с политикой использования ИИ или раскрытия процессов его применения в школе, где учится ваш ребенок, и напоминайте своему чаду, что эти правила обязательно надо соблюдать. Если вашего ребенка несправедливо обвинили в использовании ИИ при выполнении задания, не теряйте самообладания, советует Кромптон. Не бойтесь оспаривать решение. Узнайте, как оно было принято, обязательно сошлитесь на то, что ChatGPT хранит историю разговоров с пользователями, если вам нужно доказать, что ребёнок не списал материал слово в слово.

4. Рекомендательные системы хотят поймать вас на крючок

Важно понимать самому и объяснять детям, как работают рекомендательные алгоритмы, говорит Теему Роос (Teemu Roos) — профессор информатики в Университете Хельсинки, который разрабатывает программу по искусственному интеллекту для финских школ. ИТ-компании зарабатывают деньги, когда люди смотрят рекламу на их платформах. Поэтому они разработали мощные алгоритмы ИИ по рекомендации контента, например видео на YouTube или TikTok, так что люди подсаживаются на просмотр и проводят на платформе слишком много времени. Алгоритм внимательно отслеживает, какого рода видео смотрят пользователи, и рекомендует нечто подобное. Чем больше вы смотрите про котиков, тем больше алгоритм показывает вам котиков.

Такие сервисы подводят пользователей к вредному контенту, в том числе к недостоверной информации, продолжает Роос. Это объясняется тем, что людей привлекает необычный или шокирующий контент, например видео про странные теории о здоровье человека или радикальные политические идеологии. Это своего рода чёрная дыра. Так что весьма разумно не верить всему тому, что смотришь онлайн. Информацию даже из надёжных источников стоит дважды перепроверить.

5. Помните про правила безопасности

Генеративный ИИ не сводится только к созданию текста: в интернете масса бесплатных приложений для deepfake и онлайн-сервисов, которые за считанные секунды добавят лицо одного человека к телу другого. Почти все, скорее всего, уже в курсе, что выкладывать интимные фото в сеть опасно. Но важно помнить, что фото друзей тоже нельзя загружать в рискованные приложения, в том числе и потому, что это может повлечь юридические последствия. Например, в США есть обвинительные приговоры против подростков по делам о распространении детской порнографии, когда они отправляли откровенные материалы с другими подростками или даже с самими собой.

«Мы беседуем с подростками об ответственном поведении в интернете, объясняем, как обеспечить их собственную безопасность и как никого не травить, не деанонимизировать и не разводить. Но важно напоминать им и об их собственных обязанностях, — рассказывает Виктор Ли. — Гнусные сплетни распространяются быстро. Только представьте, что будет, если кто-то выложит фейковые фото».

Конкретные примеры, касающиеся неприкосновенности частной жизни или юридических рисков использования интернета, убеждают детей и подростков лучше, чем абстрактные разговоры о правилах и рекомендациях, отмечает Ли. Например, мы объясняем, что приложения ИИ для редактирования лица могут сохранять загружаемые фото, или рассказываем новости о том, что платформу взломали хакеры. Это воздействует эффективнее, чем просто предупреждения из серии «позаботьтесь о безопасности своих персональных данных», говорит он.

6. Не забывайте, чем ИИ может быть действительно полезен

Но не всё так безотрадно. Первые дискуссии об ИИ в образовании вращались в основном вокруг вопроса, станет ли искусственный интеллект хорошей шпаргалкой. На самом деле, если грамотно подойти к его использованию, он превращается в очень полезный инструмент обучения. Если студентам трудно разобраться в какой-то теме, они могут попросить ChatGPT разбить её на несколько подтем, перефразировать непонятное предложение или сыграть роль опытного учителя биологии, который проверит их знания. А ещё нейросеть отлично справляется с задачей быстрого составления подробной таблицы для сравнения достоинств и недостатков разных колледжей. На самостоятельное исследование такого рода уйдёт не один час.

Хелен Кромптон перечисляет и другие преимущества ИИ: можно попросить у чат-бота глоссарий сложных терминов, чтобы с его помощью подготовиться к вопросам по истории перед опросом или оценить письменные ответы студента.

«Конечно, не стоит забывать о необъективности, склонности к ложным представлениям и неточностям и о важности цифровой грамотности. Но если пользоваться ИИ с умом, это только на пользу, — говорит она. — Мы во всём этом разбираемся по ходу дела».

Пожалуйста, оцените статью:
Пока нет голосов
Источник(и):

Хабр