СЕКЦИЯ
Цифровая образовательная среда: новые возможности обучения, воспитания, развития обучающихся

Ткаченко А.О.,

Носкова Т.Н.

РГПУ им. А.И. Герцена,

г. Санкт-Петербург

Проектирование анкет обратной связи для апробации коробочных образовательных продуктов в педагогическом технопарке с использованием ИИ

В статье рассматривается проблема проектирования инструментов сбора обратной связи для апробации студенческих образовательных продуктов в условиях педагогического технопарка. Актуальность исследования обусловлена необходимостью учета предметной специфики при сохранении сопоставимости данных для последующего анализа. Проведен анализ теоретических подходов к организации обратной связи, систематизированы зарубежные и российские исследования по применению искусственного интеллекта (ИИ) для генерации вопросов и организации гибридной обратной связи. Представлены результаты сравнительного эксперимента с тремя языковыми моделями (DeepSeek, YandexGPT, ChatGPT), продемонстрировавшие различия в глубине методической рефлексии генерируемых анкет. Предложен гибридный подход к проектированию анкет, сочетающий базовый блок, предметно-ориентированный блок и ИИ-адаптацию под конкретный продукт, что позволяет преодолеть противоречие между унификацией и гибкостью.

Tkachenko A.O.,

Noskova T.N.

Herzen State Pedagogical University of Russia

Saint-Petersburg

Designing Feedback Questionnaires for the Validation of Boxed Educational Products in a Pedagogical Technopark Using AI

The article addresses the problem of designing feedback collection tools for the validation of student-developed educational products in a pedagogical technopark. The relevance of the study is determined by the need to account for subject-specific features while maintaining data comparability for subsequent analysis. The paper analyzes theoretical approaches to feedback and reviews international and Russian research on the use of artificial intelligence (AI) for question generation and hybrid feedback models. The results of a comparative experiment with three language models (DeepSeek, YandexGPT, ChatGPT) are presented, demonstrating differences in the depth of methodological insight in the generated questionnaires. A hybrid approach to questionnaire design is proposed, combining a core block, a subject-oriented block, and AI adaptation for a specific product, which allows overcoming the contradiction between unification and flexibility.
1. Введение
Современный педагогический университет включает в себя педагогический технопарк «Кванториум», созданный в 2021 году в рамках национального проекта «Образование». Технопарк выступает площадкой, где студенты осваивают современные технологии и реализуют проекты, результатом которых становятся готовые образовательные продукты. Одним из форматов таких продуктов являются коробочные образовательные комплекты (КОП) – целостные решения, включающие дидактические материалы, методические рекомендации и сам продукт, созданный с использованием аддитивных, лазерных и иных технологий.

Ценным результатом деятельности Кванториума является не только сам созданный КОП, но и данные, полученные в ходе его апробации, которые позволяют его совершенствовать. Студенты участвуют в разработке КОП на базе Кванториума и самостоятельно осуществляют его апробацию в образовательных организациях. Здесь возникает задача: спроектировать инструмент сбора обратной связи, который позволит получить содержательную информацию, пригодную одновременно для двух целей: помощи студенту в доработке его КОП и обеспечения Кванториума данными для совершенствования методики разработки коробочных решений и организации практик. При этом инструмент должен учитывать, что студенты представляют разные предметные области, каждая из которых имеет свою специфику.

2. Анализ теоретических подходов к проектированию обратной связи
2.1. Обратная связь как инструмент рефлексии в педагогическом образовании
Обращаясь к научной литературе по проблеме сбора обратной связи в педагогическом образовании, можно выделить несколько ключевых направлений. П.В. Закотнова определяет обратную связь как целенаправленную коммуникацию, ориентированную на коррекцию и совершенствование образовательных результатов, выделяя такие характеристики эффективной обратной связи, как конструктивный характер, конкретика, персонализация и баланс [2]. В работах Т.А. Подольской и Е.С. Чепурновой (2024) на выборке из 300 респондентов показано, что для большинства (63%) значима обратная связь, повышающая самооценку и уверенность, тогда как формальная и неконкретная обратная связь не только бесполезна, но и демотивирует [6].
В контексте профессиональной подготовки педагогов особое значение приобретает рефлексивный потенциал обратной связи. О.А. Мусатова с коллегами (2025) на основе анализа 487 студенческих работ демонстрируют, что рефлексивная обратная связь способствует развитию метакогнитивных умений обучающихся [4]. Т.Н. Носкова (2021) акцентирует значимость проектирования цифровой образовательной среды как пространства, где рефлексия и обратная связь становятся системообразующими факторами профессионального развития [5].

2.2. Методология проектирования опросных инструментов
Проблема проектирования инструментов сбора обратной связи получает освещение в работах по методологии опросных исследований. Ю.В. Вайнштейн (2023) рассматривает анкеты рефлексии как инструменты, требующие тонкой настройки под конкретный педагогический контекст; исследователь подчеркивает, что универсальные опросники часто не работают – они либо слишком общи, либо перегружены нерелевантными вопросами [1].

Согласно Т.Н. Носковой, цифровая образовательная среда – это пространство, где качество образовательного взаимодействия определяется настройкой связей между субъектами и цифровыми ресурсами [5]. В рамках данного подхода проектирование анкет обратной связи предстает не просто инструментальной задачей, но способом управления этими связями.

2.3. Применение ИИ для генерации вопросов и обратной связи
Исследователи Т. Мбуру с коллегами (2025) предложили методологический фреймворк для ИИ-управляемой генерации вопросов (SQRA), показав, что нейросети способны создавать адаптивные вопросы, учитывающие специфику учебного курса, однако требуют критической оценки: типичные проблемы включают избыточные формулировки, «сдвоенные» вопросы и использование жаргона [14].

Л. Эгер (2024) на примере маркетингового образования продемонстрировал практический кейс использования генеративного ИИ для проектирования опросников, выявив проблему недостаточного опыта студентов в промпт-инжиниринге [13]. Й.Х. Чой и К.Н. Пак (2025) представили гибридную модель SPARK и предложили трехмерную систему оценки качества вопросов [10].

В контексте генерации обратной связи В. Дай с коллегами (2024) сравнил GPT-3.5 и GPT-4, показав, что новые модели демонстрируют лучшие результаты, но обе требуют человеческого контроля [11]. М. де Вет, М. Ойя да Силва и Р. Бонсак (2025) выявили, что студенты ценят ясность ИИ-обратной связи, однако повторяющиеся лексические паттерны снижают воспринимаемую аутентичность [12].

2.4. Гибридные модели «человек + ИИ»
Особую значимость для настоящего исследования представляют работы, обосновывающие гибридные модели. С.К. Банихашем с коллегами (2025) предложили педагогический фреймворк «гибридной интеллектуальной обратной связи», определяющий роль GenAI как самостоятельного источника или части совместного процесса с преподавателем [8]. К. Пахи и соавторы (2024) в эмпирическом исследовании показали, что ИИ лучше справлялся с мотивационной поддержкой, а преподаватели – с выявлением концептуальных пробелов [16]. Ф. Вебер, Т. Вамбсгансс и М. Зёльнер (2024) доказали, что гибридная система «ИИ + преподаватель» значимо улучшила качество студенческих работ [17].

Систематический обзор К.Л. Батинггал и М.М. Бауйот (2026) констатирует, что ИИ-обратная связь, дополненная человеческой, превосходит каждый подход по отдельности [9]. Интегративный обзор Л. Альгамди и Т. Альгиззи (2025) утверждает, что ИИ-обратная связь должна дополнять, а не заменять человеческое обучение [7]. В документации OpenAI прямо указывается, что полагаться на модели без принципа «человек в контуре» не рекомендуется [15].

3. Постановка проблемы: противоречие и исследовательский пробел
Проведенный анализ позволяет зафиксировать следующее противоречие. С одной стороны, существует объективная потребность в качественной, контекстно-адаптированной обратной связи при апробации коробочных образовательных продуктов. Как отмечают исследователи в области методики преподавания [3], каждая предметная область обладает собственной методической системой, что требует учета специфики при оценке разработанных продуктов. Для дисциплин коррекционной направленности значимы параметры, связанные с учетом индивидуальных особенностей обучающихся; для математических дисциплин важны дифференциация заданий и развитие логического мышления; для естественно-научных направлений критичны наглядность и связь с практикой.

С другой стороны, известные подходы к проектированию анкет либо не масштабируются на множество предметных областей (ручная разработка трудоемка), либо, опираясь на ИИ-генерацию, не учитывают глубинную предметную специфику и значимые для экспертов-методистов аспекты, которые не лежат на поверхности и проявляются только в практической деятельности. Исследования фиксируют проблему «поверхностной адаптации», когда ИИ работает с явным, но не с неявным знанием.

Таким образом, актуальной задачей становится разработка подхода, сочетающего гибкость (учет предметной специфики) и унификацию (сопоставимость данных). В таблице 1 представлено сравнение существующих подходов.

Таблица 1 – Сравнение подходов к проектированию анкет обратной связи

Критерий

Ручная разработка

Только ИИ

Гибридный подход

Учет предметной специфики

Высокий (но трудоемко)

Поверхностный

Глубокий (методист + ИИ)

Сопоставимость данных

Низкая

Средняя

Высокая (базовый блок)

Скорость

Низкая

Высокая

Высокая

Учет неявного знания

Высокий

Отсутствует

Высокий (эксперт)

Масштабируемость

Отсутствует

Высокая

Высокая

 
4. Сравнительный анализ генерации анкет разными ИИ-моделями
Для проверки того, насколько разные языковые модели справляются с задачей контекстной адаптации анкет под различные предметные области, был проведен эксперимент с тремя моделями: DeepSeek, YandexGPT и ChatGPT. Выбор моделей обусловлен их распространенностью в исследовательской практике.

В качестве тестовых были выбраны три предметные области, представляющие разные уровни образования и типы педагогической деятельности:
·         Математика (5–7 классы);
·         Дошкольное образование (развитие речи, логопедия);
·         Биология (5–7 классы).
Для каждой области был сформулирован единый промпт, содержащий описание учреждения, возраста обучающихся, состава комплекта и ключевых методических аспектов, значимых для данной области.

4.1. Анкеты, сгенерированные моделями
 

Таблица 2 – Математика (5–7 классы)

Модель

Примеры вопросов

DeepSeek

«Удалось ли тебе организовать обсуждение решений так, чтобы дети сами объясняли ход своих мыслей (развитие математической речи)? Что помогало или мешало этому?»

YandexGPT

«Насколько задачи из комплекта связаны с реальной жизнью и имеют практический смысл?»

ChatGPT

«Какие трудности возникли у учащихся при выполнении заданий?»

 

Таблица 3 – Дошкольное образование (развитие речи)

Модель

Примеры вопросов

DeepSeek

«Заметил(а) ли ты какую-либо положительную динамику в речи детей к концу занятия? Если да, в чем именно (например, дети стали чище произносить звук, активнее использовать слова)?»

YandexGPT

«Насколько успешно удалось реализовать игровую форму занятия?»

ChatGPT

«Дети могли выполнять задания самостоятельно (без постоянной помощи взрослого)?»


Таблица 4 – Биология / Естествознание (5–7 классы)

Модель

Примеры вопросов

DeepSeek

«Оцени удобство, доступность и безопасность проведения опытов/наблюдений с использованием материалов комплекта. Всё ли было продумано?»

YandexGPT

«Насколько материал из КОП способствует формированию научной картины мира у учеников?»

ChatGPT

«Удалось ли организовать наблюдение или эксперимент с использованием материалов комплекта?»

 
4.2. Результаты сравнительного анализа
Анализ ответов трех моделей проводился по пяти критериям, для которых были определены следующие содержательные характеристики:
·         методическая глубина – соответствие вопросов ключевым дидактическим принципам предметной области;
·         рефлексивность – способность вопроса побудить студента к анализу причин успеха/неудачи, а не просто к констатации факта;
·         практическая применимость – возможность использования вопроса в реальной анкете без существенной доработки;
·         оригинальность – наличие уникальных, нешаблонных формулировок;
·         структурированность – логика построения анкеты, сочетание разных форматов вопросов.
Результаты представлены в таблице 5.
 

Таблица 5 – Сравнительная характеристика ответов ИИ-моделей

Критерий

DeepSeek

YandexGPT

ChatGPT

Математика (5–7 классы)

Методическая глубина

5

4

4

Рефлексивность

5

3

4

Оригинальность

5

4

3

Итого (ср.)

5.0

3.7

3.7

Дошкольное образование

Методическая глубина

5

4

4

Рефлексивность

5

3

3

Оригинальность

5

3

4

Итого (ср.)

5.0

3.3

3.7

Биология / Естествознание

Методическая глубина

5

4

3

Рефлексивность

5

4

3

Оригинальность

5

3

2

Итого (ср.)

5.0

3.7

2.7

Итоговый средний балл

5.0

3.6

3.4

 
4.3. Качественный анализ ответов
DeepSeek предложил наиболее развернутые анкеты, в которых вопросы были направлены на углубленное рассмотрение методической специфики каждой предметной области. В математике модель акцентировала развитие математической речи и рефлексию; в дошкольном образовании – динамику речи и индивидуальный подход; в биологии – организационные и содержательные аспекты проведения эксперимента. В анкетах модели преобладали вопросы, побуждающие к анализу причин, а не просто к констатации фактов.

YandexGPT показал хорошие практические результаты, предложив четкие, структурированные анкеты. В математике модель делала акцент на связи заданий с реальной жизнью, в биологии – на формировании научной картины мира, в дошкольном образовании – на игровой форме занятий. Вопросы модели отличались практической направленностью, однако были менее рефлексивными и в ряде случаев тяготели к шаблонным формулировкам.

ChatGPT продемонстрировал сбалансированный подход к построению анкет. В математике модель сфокусировалась на общих трудностях выполнения заданий, в биологии – на факте проведения эксперимента, в дошкольном образовании – на самостоятельности детей. Вопросы, побуждающие к анализу причин и рефлексии, представлены в меньшем объеме по сравнению с DeepSeek.

4.4. Обсуждение результатов
Проведенный эксперимент подтверждает выводы зарубежных исследователей [14, 11, 12]: ИИ эффективен на этапе генерации структуры, но глубина методической рефлексии зависит от конкретной модели. DeepSeek продемонстрировал способность генерировать вопросы, затрагивающие те аспекты предметной методики, которые обычно относят к области неявного знания экспертов. Однако даже лучшие результаты требуют экспертной доработки.
Полученные данные подтверждают необходимость гибридного подхода, в котором ИИ выполняет функцию ассистента, а окончательная содержательная экспертиза остается за человеком.

5. Направления решения: гибридный подход к проектированию анкет
Проведенный анализ позволяет перейти к содержательному описанию подхода, призванного преодолеть выявленное противоречие между предметной спецификой и необходимостью унификации данных. В основе предлагаемого решения лежит гибридная модель проектирования анкет обратной связи, в которой инструмент сбора данных формируется из трех взаимосвязанных источников.

Первый источник – базовый блок.
Он разрабатывается сотрудниками Кванториума и содержит вопросы, обязательные для всех проектов независимо от их предметной направленности. Функция этого блока – обеспечение сопоставимости данных, возможность сравнивать проекты между собой, выявлять общие тенденции и проблемные зоны в работе технопарка.

Второй источник – предметно-ориентированный блок.
Его содержание задается методистом соответствующего направления. Методист один раз формулирует набор значимых для своей области параметров, которые затем автоматически подключаются к анкетам всех студентов данного направления. Это позволяет учитывать глубинную специфику предмета без необходимости каждый раз разрабатывать анкету с нуля.

Третий источник – ИИ-адаптация под конкретный КОП.
На основе структурированного описания комплекта, предоставленного студентом, большая языковая модель уточняет формулировки вопросов из первых двух блоков, делая их максимально релевантными контексту конкретного КОП, и при необходимости предлагает 1–2 дополнительных вопроса, направленных на сбор информации об уникальных особенностях продукта.

Для иллюстрации того, как работает адаптация, можно рассмотреть трансформацию вопроса из базового блока «Оцените вовлеченность обучающихся в занятие». В зависимости от предметной области и уровня образования этот вопрос может быть конкретизирован ИИ: для математики (5–7 классы) – «Насколько учащиеся были вовлечены в решение нестандартных задач?», для биологии (5–7 классы) – «Насколько школьники были увлечены процессом наблюдения за объектами природы?», а для дошкольного образования – «Насколько дети были вовлечены в игровые моменты занятия?».

Роль ИИ в предлагаемой модели является ассистирующей, а не замещающей. Нейросеть выступает инструментом ускорения и структурирования работы, но окончательное содержательное наполнение анкеты, экспертиза формулировок и учет неявного знания остаются за человеком. Такой подход полностью согласуется с выводами зарубежных исследователей о необходимости гибридных моделей и принципа «человек в контуре» [8, 15, 16].

6. Заключение
Проведенный анализ литературы и сравнительное исследование генерации анкет разными ИИ-моделями позволяют утверждать, что проблема проектирования анкет обратной связи для апробации студенческих образовательных продуктов в условиях педагогического технопарка является актуальной и практически значимой. В работах российских и зарубежных авторов детально проработаны теоретические основы рефлексивной обратной связи, показан потенциал использования ИИ для генерации вопросов, обоснована необходимость гибридных моделей «человек + ИИ».

Эксперимент с тремя моделями (DeepSeek, YandexGPT, ChatGPT) подтвердил, что все они успешно справляются с задачей генерации структурированного каркаса анкеты. Однако глубина методической рефлексии существенно различается: DeepSeek продемонстрировал способность генерировать более глубокие вопросы. Ни одна из моделей не является идеальной, что подтверждает необходимость гибридного подхода, в котором ИИ выполняет функцию ассистента, а содержательная экспертиза остается за человеком.

Предложенный подход, включающий базовый блок, предметно-ориентированный блок и ИИ-адаптацию под конкретный КОП, может стать основой для дальнейших исследований и разработки цифрового модуля в структуре образовательной среды технопарка.

Литература:
1. Вайнштейн Ю.В. Бланк рефлексии в персонализированной адаптивной обучающей системе // Справочник научно-методических разработок ФГАОУ ДПО «Академия Минпросвещения России». 2023. С. 112–119.
2. Закотнова П.В. Организация обратной связи в процессе педагогического взаимодействия преподавателей и студентов в вузе // Педагогика. Вопросы теории и практики. 2025. Т. 10. № 1. С. 45–52. DOI: 10.30853/ped20250011.
3. Краевский В.В., Хуторской А.В. Основы обучения. Дидактика и методика. М.: Академия, 2020. 352 с. [web: общеизвестно].
4. Мусатова О.А., Ефремова Г.И., Кулешова Л.Н. Обратная связь как инструмент профессионального развития студентов технического вуза в гуманитарном образовании // Вестник ТвГУ. Серия: Педагогика и психология. 2025. № 4. С. 51–62.
5. Носкова Т.Н. Педагогика цифрового образования: учебник. СПб.: Изд-во РГПУ им. А.И. Герцена, 2021. 320 с..
6. Подольская Т.А., Чепурнова Е.С. Представления об обратной связи у участников образовательного процесса // Вестник практической психологии образования. 2024. Т. 21. № 3. С. 77–83.
7. Alghamdi L.H., Alghizzi T.M. Educators' reflections on AI-automated feedback in higher education: a structured integrative review // Frontiers in Education. 2025. Vol. 10. 1704820. DOI: 10.3389/feduc.2025.1704820.
8. Banihashem S.K. et al. Pedagogical framework for hybrid intelligent feedback // Innovations in Education & Teaching International. 2025. DOI: 10.1080/14703297.2025.2499174.
9. Batingal C.L., Bauyot M.M. Navigating the Effectiveness of AI-driven Feedback vs Human Feedback Across Educational Levels: A Systematic Review // International Journal of Multidisciplinary Educational Research and Innovation. 2026. Vol. X. P. XXX.
10. Choi Y.H., Park K.N. A Study on Creative Question Design Model through Generative AI Collaboration // Proceedings of Korea Institute of Design Research Society. 2025. DOI: 10.46248/kidrs.2025.3.543.
11. Dai W. et al. Assessing the proficiency of large language models in automatic feedback generation // Computers and Education: Artificial Intelligence. 2024. Vol. 7. 100299. DOI: 10.1016/j.caeai.2024.100299.
12. De Wet M., Oja da Silva M., Bohnsack R. Can AI give good feedback on essay-type assignments? // Innovations in Education & Teaching International. 2025. DOI: 10.1080/14703297.2024.XXXXXXX (advance online).
13. Eger L. Questionnaire Design Using Generative AI: A Case Study from Marketing // Trendy v podnikání. 2024. Vol. 14. № 2. P. 69–76. DOI: 10.24132/jbt.2024.14.2.69_76.
14. Mburu T.K., Rong K., McColley C.J., Werth A. Methodological Foundations for AI-Driven Survey Question Generation // Journal of Engineering Education. 2025. Vol. 114. arXiv:2505.01150.
15. OpenAI. Как можно использовать ChatGPT для оценивания и обратной связи? [Электронный ресурс] // OpenAI Help Center. 2025. URL: https://help.openai.com/ru-ru/articles/8313397-how-can-chatgpt-be-used-for-assessment-and-feedback (дата обращения: 05.03.2026).
16. Pahi K. et al. Enhancing Active Learning through Collaboration Between Human Teachers and Generative AI // Computers and Education Open. 2024. Vol. 7. 100183. DOI: 10.1016/j.caeo.2024.100183.

17. Weber F., Wambsganss T., Söllner M. Enhancing legal writing skills: The impact of formative feedback in a hybrid intelligence learning environment // British Journal of Educational Technology. 2024. DOI: 10.1111/bjet.13529.

ВОПРОСЫ И КОММЕНТАРИИ
Система комментирования SigComments
Made on
Tilda