В настоящее время интернет и цифровые коммуникации активно внедряются в практическую деятельность психологов. Эволюция началась с внедрения веб-технологий, которые сделали психологическую помощь более доступной и позволили гибко выстраивать график работы специалистов. Это значительно расширило возможности сферы охраны психического здоровья [5]. Самым современным на сегодняшний день инструментом виртуальной коммуникации становятся модели глубинного обучения, основанные на нейросетях. Они формируют особую «гибридную» реальность, фактически превращая цифровую среду в полноправного участника взаимодействия [7]. Диалоговые системы и чат-боты, функционирующие на основе алгоритмов обработки естественного языка и машинного обучения, представляют собой одно из ключевых достижений в развитии искусственного интеллекта. Их востребованность стремительно растет в самых разных сферах, включая деятельность специалистов помогающих профессий - психологов, медиков и педагогов [1,3]. Ярким примером такой системы выступает ChatGPT — чат-бот на базе ИИ [4,6], который умеет генерировать разнообразные тексты, в том числе и психологические рекомендации.
Применение подобных технологий сопряжено с комплексом этических проблем. Среди них — риск ошибок и предвзятости, заложенных в обучающих данных для нейросетей [8]. Не менее важны вопросы, касающиеся сохранения конфиденциальности, цифровой безопасности, а также потенциального воздействия искусственного интеллекта на социальные навыки, поведение и межличностное общение людей [9].
Особую остроту эти вопросы приобретают, когда чат-боты используются для оказания психологической поддержки или просвещения. В этом случае возникают специфические риски: низкое качество и непрофессионализм предоставляемой информации, а также использование сомнительных или недопустимых с этической точки зрения приемов общения [10]. Подобные действия вступают в прямое противоречие с профессиональной этикой психолога, могут причинить вред пользователю и негативно сказаться на доверии ко всей сфере профессиональной помогающей деятельности в виртуальной среде [2].
Описанные противоречия между стремительным развитием технологий и недостаточной проработкой нормативно-этических механизмов их использования позволили сформулировать следующий
исследовательский вопрос: насколько будущие специалисты-психологи осознают специфику и ограничения работы с ИИ, способны ли они дифференцировать профессиональные и непрофессиональные цифровые инструменты и как оценивают этические риски применения чат-ботов в помогающей практике?
Выбор студентов-психологов в качестве респондентов обусловлен следующими причинами: с одной стороны, они являются активными пользователями цифровых технологий (представляя поколение, для которого взаимодействие с ИИ естественно), а с другой - находятся в процессе профессионального становления, осваивая нормы этического кодекса и принципы оказания квалифицированной помощи. Именно эта группа наиболее чувствительна к противоречию между доступностью технологий и профессиональными стандартами. Изучение их установок позволяет не только оценить текущий уровень цифровой грамотности будущих специалистов, но и спрогнозировать, с какими запросами и этическими дилеммами они столкнутся в своей практике через несколько лет, а также выявить дефициты в их подготовке, которые требуют коррекции уже на этапе вузовского обучения.
В связи с этим
целью нашего исследования стал анализ представлений студенческой молодежи о возможностях и этических ограничениях психологических чат-ботов.
Для реализации цели исследования нами был проведен опрос 157 респондентов (М= 20,3, SD= 2,4 года), обучающихся на факультете психологии об их опыте использования специализированных и неспециализированных психологических чат ботах, а также о этических рисках использовании искусственного интеллекта для психологической помощи. Изучение осведомленности студентов-психологов о чат-ботах является важным этапом мониторинга цифровой грамотности и профессиональной зрелости будущих специалистов. Знания о существующем инструментарии и понимание этических рисков, может помочь отследить вектор развития профессии, а также разработать программы обучения, направленные на формирование критического мышления и этической рефлексии.
Результат опроса показал, что у 39,49% студентов нет опыта обращения к чат-боту за психологической помощью, 43,3% изредка пользуются подобными ресурсами, 14,65% часто, а 2,5% постоянно используют чат-боты для психологических запросов. Таким образом 60,5% опрошенных имеют опыт использования психологических чат-ботов. Можно утверждать, что технология уже стала частью повседневной жизни студентов. Чаще всего встречается ситуативное использование ботов, студенты обращаются к чат-ботам эпизодически. При этом активные пользователи (17,15%), с одной стороны могут изучить инструментарий и в будущем интегрировать его в свою работу, а с другой могут быть в зоне риска из-за высокого доверия технологиям.
Также мы опросили студентов о том, какими конкретными чат-ботами они пользовались или знают о ним. При этом стоит отметить, что о специализированных психологических чат ботах знают всего 5,7% студентов. Были названы такие чат-бота как Сalm_mind_bot, DBT-skills, бот "Мы вместе", Replika, Анна, Лея, Zigmund.GPT, Токсиметр, Mindspace, Woebot. 7,6% респондентов указали, что они имели опыт, но не могут вспомнить названия программ, 10,8% не видят разницы между специализированными и неспециализированными чат-ботами, а 77,1% студентов никогда не обращались за помощью в специализированным программам.
Низкая осведомленность о специализированных чат-ботах, указывает на стихийное использование технологий без понимания их профессиональной специфики. Подавляющее большинство студентов, которые используют боты для решения психологических задач, делают это с помощью неспециализированных инструментов: обычных языковых моделей, развлекательных ботов-компаньонов или просто не придают значения тому, какой именно бот им помогает. Для категории студентов, которые не помнят каким психологическим чат-ботом они пользовались, он является обезличенным сервисом, что может указывать на поверхностное и нерефлексивное использование. Студенты не анализируют, кто создал бота, на каких методах он основан и можно ли ему доверять, что усиливает этические риски работы.
56,69% студентов обращались с психологическими запросами к неспециализированным ботам (Deepseek, Chatgpt, Open I, Алисаai, Character Ai, Perplexity, Grok, Gemini, Claude, Qwen). Можно наблюдать уже сформированную практику использования неспециализированных языковых моделей для решения психологических проблем, которая размывает границы между поисковыми запросами, генерацией текста и профессиональной психологической помощью. Стоит отметить, что студенты следят за разработками и используют самые современные и мощные модели, однако эти модели предназначены для поиска фактов (Perplexity), созданы для развлечения (Character AI), являются базовыми моделями, основанными на большом пуле как профессиональных, так и непрофессионал текстов (ChatGPT, DeepSeek), являются голосовыми помощниками (Алиса), но не имеют медицинской лицензии и не учитывают требования этического кодекса работы психолога.
Отметим скрытые риски использования неспециализированных ботов. В отличии от специализированных, которые обеспечивают конфиденциальность данных, общие языковые модели, такие как DeepSeek или ChatGPT могут использовать данные для дообучения моделей и таргетированной рекламы. Так же есть риск усугубления психологического состояния из-за специфики общих моделей, которые обучены быть «дружелюбными» и соглашаться с пользователем. В кризисных ситуациях общая ИИ модель может писать общие фразы, так как в нее не заложен протокол антикризисного вмешательства. Таким образом формируется нереалистичный, бесконфликтный образ «идеального» психолога, создающий нереалистичные ожидания от живого специалиста в будущем.
Подобные опасения подтверждает вторая часть опроса, которая была посвящена анализу осведомленности об этических рисках использования чат-ботов для психологической помощи. Респонденты оценивали конфиденциальность в работе с ИИ, корректность рекомендаций в работе с ИИ, непредвзятость в работе с ИИ (наличие стереотипных ответов), учет индивидуальности в работе с ИИ и возможность порекомендовать ИИ для психологической помощи другу в сложной ситуации (таблица 1).
Таблица 1 - Оценка различных аспектов работы с ИИ студентами-психологами
Оценка | Конфиденциальность (%) | Корректность рекомендаций (%) | Непредвзятость в работе (%) | Учет индивидуальности (%) |
Очень низкая | 16,6 | 15,9 | 19,7 | 21,0 |
Низкая | 11,5 | 18,5 | 15,9 | 29,9 |
Средняя | 34,4 | 43,9 | 34,4 | 25,5 |
Высокая | 22,9 | 19,1 | 20,4 | 19,1 |
Очень высокая | 14,6 | 3,2 | 9,6 | 4,5 |
Студенты оценивают конфиденциальность на достаточно высоком уровне, среднюю оценку дают 34,4%, высокую оценку дают 37,5% респондентов. Студенты склонны доверять ИИ в вопросах сохранения личных данных несмотря на то, что большинство использует общие боты, которые по умолчанию собирают данные для обучения моделей и не гарантируют врачебную тайну.
Корректность рекомендаций также оценивается достаточно высоко, 43,9% оценивают ее на среднем уровне и 22,3% на высоком уровне, что указывает на приемлемость интерпретаций чат-бота.
Оценки предвзятости и стереотипности ответов чат-бота, оценивается почти симметрично: 35,6 % - низкие оценки, 34,4% - средние, 30% - высокие. Студенты, вероятно, сталкиваются с алгоритмическими искажениями (гендерные, культурные стереотипы) в ответах ботов, но не все способны их распознать. Некоторые могут считать ИИ объективным, что является заблуждением, так как модели обучаются на данных, содержащих различные предрассудки.
Половина студентов (50,9%) оценили способность ИИ учитывать индивидуальные особенности как низкую или очень низкую, что является закономерным, так как общие языковые модели, которые в основном использую студенты, дают шаблонные, статистически усреднённые ответы. Однако, несмотря на это, студенты продолжают обращаться к ИИ, что говорит о дефиците более качественных инструментов или о том, что даже шаблонная поддержка для них ценнее её отсутствия.
Анализ оценок, данных студентами-психологами различным аспектам работы с искусственным интеллектом, позволяет выявить противоречивую картину восприятия: при достаточно критичном отношении к персонализации, студенты демонстрируют неоправданно высокий уровень доверия к конфиденциальности и корректности рекомендаций, что на фоне массового использования неспециализированных ботов (56,69%) создаёт серьёзные этические риски.
Также в результате опроса выяснилось, что 36,9% не готовы рекомендовать чат-бот другу в сложной ситуации, 19,1% сомневаются, можно ли его рекомендовать, 40,7% готовы рекомендовать с предупреждениями и 3,1% готовы обязательно рекомендовать чат-бот в качестве помощи. Таким образом 56% респондентов на данный момент не готовы внедрять чат-боты в профессиональную практику. Можно сказать, что алгоритм взаимодействия с цифровым помощником еще не до конца сформировался. 40,7% готовы рекомендовать бот с предупреждениями, но с учетом анализа предыдущих данных, становится видон, что у самих респондентов еще не сформировалось представление о рисках использования чат-бота.
На следующем этапе мы с помощью критерия Манна-Уитни провели сравнительный анализ оценок респондентов, использующих и не использующих чат боты для психологической поддержки. Было выявлено, что студенты, использующие чат-боты для психологической поддержки, достоверно выше оценивают конфиденциальность (р=0,0001), корректность рекомендаций (р=0,00005), учет индивидуальности (р=0,00008) и достоверно чаще бы порекомендовали бы чат бот другу в сложной жизненной ситуации (р=0,0001). Можно предположить, что частота использования повышает уровень доверия к ИИ, что может усиливать риски его некорректного использования.
Проведенное исследование выявило противоречивую картину «стихийной цифровизации» в сфере психического здоровья. С одной стороны, студенты-психологи демонстрируют высокую вовлеченность в использование чат-ботов (60,5% имеют опыт), активно применяя самые современные языковые модели. С другой стороны, наблюдается критически низкая осведомленность о специализированных психологических разработках (77,1% никогда к ним не обращались) и размытость границ между поиском информации, развлечением и психологической помощью. Парадоксальность ситуации заключается в том, что, критически оценивая способность ИИ учитывать индивидуальность (50,9% дали низкие оценки), студенты склонны неоправданно высоко доверять конфиденциальности и корректности рекомендаций общих моделей. Это подтверждает, что практика использования технологий значительно опережает формирование профессиональной рефлексии и этической культуры их применения. Полученные данные актуализируют необходимость включения в программы подготовки психологов модулей по цифровой этике, развитию критического мышления по отношению к выводам ИИ и обучению навыкам дифференциации надежных цифровых инструментов для последующей работы с клиентами.
Литература:1. Егоров Д. А., Арбузова А. А. Чат-бот: классификации, сферы применения, направления развития // Молодые ученые - развитию Национальной технологической инициативы (ПОИСК). 2022. № 1. С. 957-959. URL:
https://elibrary.ru/download/elibrary_49223417_31012399.pdf (дата обращения 13.02.2026)
2. Клюева Н. В., Головчанова Н. С. Этика и профессиональное общение психолога-консультанта: метод. Указания. Ярославль: Издательство ЯрГУ, 2012. 52 с. URL:
https://elibrary.ru/download/elibrary_49223417_31012399.pdf (дата обращения 13.02.2026)
3. Caldarini G. A., Jaf S., McGarry S. (2022) Literature survey of recent advances in chatbots Information. Vol. 13. No. 1. P. 41. https://doi.org/10.3390/info13010041
4. Flaih, L.R., Shukur, M.H. (2018) Software Agent for E-mail Spam Filtering. International Journal of Applied Engineering Research. Vol. 13(10), P.7701-7703 URL:
https://www.researchgate.net/publication/355198451_Software_Agent_for_E-mail_Spam_Filtering (accessed: 13.02.2026)
5. Kumar P., Chauhan S., Awasthi L. K. (2023) Artificial Intelligence in Healthcare: Review, Ethics, Trust Challenges & Future Research Directions. Engineering Applications of Artificial Intelligence. Vol. 120. P. 105894. https://doi.org/10.1016/j.engappai.2023.105894
6. Mathew A. (2023) Is Artificial Intelligence a World Changer? A Case Study of OpenAI’s Chat GPT. Recent Progress in Science and Technology. Vol. 5. P.35-42.
https://doi.org/10.9734/bpi/rpst/v5/18240D7. Saveliev A. M., Zhurenkov D. A., Poikin A. E., Berkutova T. A. (2021) Ethics of Artificial Intelligence and Post-non-classical Scientific Rationality. IFAC-PapersOnLine. Vol. 54, Is. 13. P. 397-401 https://doi.org/10.1016/j.ifacol.2021.10.480
8. Stahl B. C., Brooks L., Hatzakis T., Santiago N., Wright D. (2023) Exploring ethics and human rights in artificial intelligence – A Delphi study. Technological Forecasting and Social Change. Vol. 191. P. 122502 https://doi.org/10.1016/j.techfore.2023.122502
9. Tawfeeq M. T., Awqati A.J., Jasim Y.A. (2023) The Ethical Implications of ChatGPT AI Chatbot: A Review. Journal of Modern Computing and Engineering Research. Vol. 2023. P. 49-56. URL:
https://www.researchgate.net/publication/372572580_The_Ethical_Implications_of_ChatGPT_AI_Chatbot_A_Review (accessed: 18.02.2026)
10. Young G. (2020) Toward a unified health work ethics codeVers un code éthique unifié pour le travail dans le secteur de la santé. Ethics, Medicine and Public Health. Vol. 15. P. 100590
https://doi.org/10.1016/j.jemep.2020.100590