СЕКЦИЯ
Искусственный интеллект и технологии на основе данных в образовании

Шмарев А.В.

Марланд П.И.

РГПУ им. А. И. Герцена,

Санкт-Петербург

Локальное использование моделей генеративного искусственного интеллекта в университетской среде – проверка возможностей и направления развития

В статье рассматривается подход к локальному (on-premise) развертыванию генеративного искусственного интеллекта (ГИИ) в инфраструктуре университета. Актуальность работы обусловлена необходимостью обеспечения безопасности чувствительных данных, цифрового суверенитета и экономической эффективности при использовании ИИ в образовательной и научной деятельности. Представлена апробация архитектуры на базе открытого программного обеспечения (vLLM, Open WebUI) и модели Qwen3-4B с квантованием FP8, развернутой на доступной рабочей станции с GPU RTX 4070. Приведены результаты оценки производительности (до 60 ток/сек) и качества генерации в зависимости от температуры. Сформулированы требования к масштабированию системы для многопользовательского режима и обозначены направления развития для интеграции в цифровую среду вуза.

Shmarev A. V.

Marland P. I.

Herzen State Pedagogical University of Russia

Saint-Petersburg

On-premise use of generative AI models in the university environment: capability testing and development directions

The article explores an approach to the on-premise deployment of Generative Artificial Intelligence (GAI) within a university's infrastructure. The relevance of the work is driven by the need to ensure sensitive data security, digital sovereignty, and cost-effectiveness when using AI in educational and research activities. We present an approbation of an architecture based on open-source software (vLLM, Open WebUI) and the Qwen3-4B model with FP8 quantization, deployed on an affordable workstation with an RTX 4070 GPU. Performance evaluation results (up to 60 tokens/sec) and generation quality depending on temperature are provided. Requirements for scaling the system to a multi-user mode are formulated, and directions for further development and integration into the university's digital ecosystem are outlined.
Генеративный искусственный интеллект (ГИИ) представляет собой мощный информационно-аналитический инструмент, который качественно меняет способы обработки информации и ускоряет научный поиск [16]. В университетской среде технологии ГИИ находят применение в широком спектре задач: от автоматизации административных процессов и создания интеллектуальных вопросно-ответных систем до поддержки персонализированного обучения и генерации образовательного контента [10]. Кроме того, его использование позволяет значительно сократить временные затраты на рутинную работу, высвобождая ресурсы для научного творчества и решения сложных междисциплинарных проблем [16].

Для эффективного использования этих возможностей необходимо создание специализированной образовательной среды, направленной на формирование компетенций в области разработки и эксплуатации систем ГИИ [17]. Это включает в себя обучение навыкам промпт-инжиниринга, критической оценке результатов генерации, пониманию этических аспектов использования ГИИ [14] и соблюдения требований действующего законодательства, особенно в части защиты чувствительных данных. Университет должен выступать платформой для взаимодействия между научными структурами и инженерными командами, предоставляя инструменты для решения прикладных задач в конкретных предметных областях, таких как медицина, психология или инженерные науки [23].

Оптимальным подходом для высшей школы является локальное использование (on-premise) моделей ГИИ. В отличие от облачных сервисов (SaaS), локальная модель разворачивается на собственных серверах университета, что дает полный контроль над инфраструктурой и настройками моделей [24]. Ключевые преимущества такого решения включают:
• Безопасность чувствительных данных:
все запросы и обрабатываемая информация остаются внутри закрытой сети университета [23]. Это критически важно при работе с персональными данными студентов, медицинскими сведениями или результатами неопубликованных исследований, которые запрещено передавать во внешние облачные сервисы из-за рисков утечки или использования данных для обучения сторонних моделей [23].

• Независимость от облачных сервисов:
работа с коммерческими облачными сервисами, сопряжена с рядом недостатков, включая отсутствие контроля над стабильностью моделей, которые могут измениться или стать недоступными в любой момент, риски нарушения конфиденциальности и зависимость от ценовой политики вендоров [23]. Локальное размещение обеспечивает цифровой суверенитет университета и стабильность исследовательских процессов.

Цель исследования
Целью данной работы является апробация архитектуры локального развёртывания ГИИ и разработка направлений развития для обеспечения безопасного практического использования технологий ГИИ в образовательной и исследовательской деятельности университета для повышения их качества и эффективности [13].

Исследование направлено на создание механизмов системного доступа к мощностям ГИИ внутри университета, что позволит научным и инженерным группам использовать передовые алгоритмы машинного обучения для решения конкретных задач, сохраняя при этом высокий уровень защиты данных и технологическую независимость [23].

2. Формулировка задачи
Основной задачей исследования является разработка и апробация архитектуры локального (on-premise) использования генеративного искусственного интеллекта (ГИИ), которая обеспечила бы гибкую среду для обучения и научных изысканий, минимизировала финансовые затраты и гарантировала полное соответствие правовым нормам в области защиты данных.

2.1. Полный контроль над информацией и правовое соответствие
Критическим требованием к системе является обеспечение конфиденциальности информации, доступ к которой ограничен (государственная тайна, коммерческая тайна, служебная тайна, профессиональная тайна, информация о частной жизни гражданина, персональные данные и т.п. [1]). Использование коммерческих облачных решений, таких как ChatGPT, сопряжено с рисками передачи информации внешним сторонам, что делает невозможным контроль за её дальнейшим использованием, включая обучение сторонних моделей. Локальное (on-premise) развертывание позволяет:
• Обеспечить соблюдение законодательства:
в частности, требования по защите конфиденциальной информации и локальные нормативные акты университета [24].
• Исключить утечки:
данные никогда не покидают закрытый контур ИТ-инфраструктуры университета, что критически важно для исследований в области медицины, психологии или при обработке студенческих работ [24].
• Обеспечить цифровой суверенитет:
создать собственные решения, независимых от экспорта, IT-инфраструктуры и программного обеспечения недружественных стран [9].

2.2. Гибкость настройки и технологический стек
Для реализации экспериментальной среды был выбран стек технологий с открытым исходным кодом, что обеспечивает максимальную адаптивность системы под конкретные образовательные и исследовательские задачи [23][24].

• vLLM и OpenAI-протокол:
использование высокопроизводительной библиотеки vLLM позволяет эффективно управлять видеопамятью и поддерживать стандартные протоколы взаимодействия [21], что упрощает интеграцию локальных моделей в существующие университетские сервисы [23][24].

• Open-source модели и квантование:
выбор в пользу моделей с открытыми весами (например, семейства Qwen или Llama) позволяет проводить глубокую настройку и оптимизацию, при этом, применение техник квантования (например FP8) является необходимым условием для запуска современных моделей на ограниченных аппаратных ресурсах без существенной потери качества генерации [23][24].

• Интерфейсные решения (Open WebUI):
использование готовых открытых интерфейсов позволяет быстро развернуть привычную для пользователей среду чата, снижая порог входа для непрофильных специалистов [18].

2.3. Экономическая эффективность и аппаратное обеспечение
В отличие от крупных исследовательских кластеров, требующих значительных капиталовложений (например, серверных решений стоимостью в десятки миллионов рублей), в данной работе сделан акцент на использовании доступных расчетных станций.

• Доступность оборудования:
подобранная рабочая станция, оснащенная игровыми GPU (уровня RTX 4070 и выше), является на порядок более бюджетным решением по сравнению со специализированными ИИ-серверами (такими как NVIDIA A40 или A5000), при сохранении достаточной производительности для работы моделей объемом до 8-14 млрд параметров [23][24].

• Отсутствие эксплуатационных платежей:
использование ПО с открытым кодом исключает регулярные затраты на оплату токенов (pay-per-token), характерные для коммерческих облачных провайдеров [24]. Основные операционные расходы сводятся к затратам на электроэнергию, что делает систему экономически устойчивой в долгосрочной перспективе.

2.4. Формирование научно-образовательной среды и развитие компетенций
Создание инфраструктуры для приватного использования генеративного искусственного интеллекта (ГИИ) выступает не только техническим решением, но и фундаментом для новой научно-образовательной экосистемы университета. Локальное развертывание позволяет трансформировать учебный процесс, переходя от восприятия ГИИ как «черного ящика» к его применению в качестве открытого инструментария для исследования и разработки [17].

• Развитие профессиональных компетенций.
Интеграция ГИИ требует формирования у студентов и сотрудников навыков промпт-инжиниринга, умения выбирать архитектуры моделей под конкретные задачи и критически оценивать результаты генерации на предмет «галлюцинаций», что, учитывая дефицит практических компетенций у сотрудников университетов [8], не всегда возможно. Локальное развертывание ГИИ позволяет устранить данный дефицит за счет получения навыков настройки параметры вывода (температуру, системные промпты, используемые модели) и изучать механику работы моделей ГИИ в безопасной среде. Например, в рамках проведения экспериментов по разворачиванию ГИИ, авторам удалось получить ценный практический опыт использования игровых GPU и оценить требования к целевой инфраструктуре.

• Механизмы междисциплинарного взаимодействия.
Платформа ГИИ становится общим цифровым ресурсом (shared resource) для различных подразделений вуза. Это позволяет создавать механизмы взаимодействия между инженерными группами и представителями гуманитарных и естественных наук (например, психологами или медиками) для решения прикладных задач. ИИ может использоваться для автоматизации навигации по сложным информационным порталам вуза через технологию RAG (Retrieval Augmented Generation) [2] или для интеллектуальной поддержки систем часто задаваемых вопросов (FAQ) [10].

• Ускорение научного поиска и творчества.
ГИИ значительно сокращает временные затраты на рутинные операции [3]: суммаризацию больших объемов литератур, подготовку аннотаций и т.п. Высвободившиеся ресурсы направляются на научное творчество и поиск новых междисциплинарных закономерностей, где локальная модель выступает в роли когнитивного ассистента, работающего с данными ограниченного доступа.

• Разработка собственных ИИ-сервисов.
Обеспечение системного доступа через локальный API позволяет научным группам создавать уникальные сервисы: от интеллектуальных методистов по разработке образовательных программ до специализированных чат-ботов, интегрированных в LMS [5] [12]. Это стимулирует культуру сотрудничества человека и ИИ-агентов внутри вуза [19].

• Академическая и этическая устойчивость.
Приватная среда позволяет каждому университету самостоятельно вырабатывать этические нормы использования ИИ, контролировать академическую честность (через мониторинг запросов или внедрение «водяных знаков» в генерации) и гарантировать соблюдение прав исследователей на их интеллектуальную собственность [19].

Таким образом, предложенный подход позволяет университету не просто потреблять внешние технологии, а формировать собственную интеллектуальную среду, готовую к оперативному внедрению передовых мощностей и привлечению профессионалов для постановки сложных задач в области ГИИ.

3. Практическая реализация и результаты
3.1. Технологические решения и аппаратное обеспечение
Для построения тестового образца была использована расчетная станция, ориентированная на локальное развертывание (on-premise), что обеспечивает полную изоляцию данных внутри закрытого контура ИТ-инфраструктуры. В отличие от серверных решений (например, систем на базе 8x RTX A5000), тестовый стенд был построен на базе компьютера с конфигурацией 32 CPU i9, 128 Гб RAM, GPU NVIDIA RTX 4070 (12 ГБ VRAM), с Nvidia Driver Version: 590.48.01 и CUDA Version: 13.1.

Аппаратные ограничения и выбор модели: Объем видеопамяти в 12 ГБ является недостаточным для запуска полноразмерных крупных моделей (от 30 млрд параметров и выше). Эксперименты показали, что модели уровня 7B могут быть запущены, однако в интерактивном режиме задержка ответа увеличивается до нескольких десятков секунд, что делает их некомфортными для живого диалога. Оптимальным выбором для тестирования стала квантованная модель Qwen3-4B-Instruct-2507-FP8, которая при малом размере сохраняет высокую скорость генерации и точность ответов [22].

Ключевые технологии оптимизации:
• 8-bit квантование (FP8): использование этого метода позволило снизить потребление видеопамяти почти вдвое по сравнению со стандартом FP16, что обеспечило стабильную работу моделей до 4 млрд параметров на имеющемся оборудовании.
• vLLM с PagedAttention: данная библиотека инференса была внедрена для эффективного управления кешем ключей и значений (KV cache). Технология PagedAttention минимизирует фрагментацию памяти, что критически важно для обработки нескольких одновременных запросов на потребительских GPU [20][21].

3.2. Производительность и оценки качества
Выбранная модель Qwen3-4B-Instruct-2507-FP8 входит в топ-10 рейтинга Hugging Face в своем весовом классе и демонстрирует высокие результаты в тестах MMLU и GSM8K, сопоставимые с более тяжелыми аналогами [22]. Для оценки производительности работы модели, она запускалась со следующими параметрами:

Рисунок 1 – Параметры запуска


Измерения проводились при длине входного промпта ~от 50 до 300 токенов и генерации ответа ~300 токенов; значения усреднены за 10 минут непрерывной нагрузки. Результаты оценки приведены в таблице 1.

Таблица 1 – Фактические оценки быстродействия модели Qwen3-4B-Instruct-2507 с квантованием FP8 (Qwen/Qwen3-4B-Instruct-2507-FP8)

Полученные данные позволяют выдвинуть гипотезу, что для обеспечения комфортной работы 8 одновременных пользователей (при целевой скорости не менее 20 ток/сек) потребуется увеличение объема видеопамяти пропорционально числу пользователей, т.е. до 96 ГБ. Это соответствует конфигурации с двумя GPU NVIDIA L40S, объединенными NVLink. Однако, учитывая механизмы PagedAttention, эта зависимость не является строго линейной, и для точного расчета необходимо тестирование на целевом оборудовании.

Для оценки качества генерации модели было проведено тестирование ответов на запросе: «Придумай диалог между учёным и художником о природе времени. Используй не менее 5 метафор из области физики и 3 — из искусства. Объём: 6 реплик». Данный запрос проверяет множество ключевых аспектов: способность следовать сложным численным ограничениям (ровно 5 метафор из физики, 3 из искусства, 6 реплик), креативность в построении осмысленного диалога, глубину понимания абстрактных концепций (природа времени) и умение органично интегрировать специализированные знания из двух далёких областей (физика и искусство) в единый связный нарратив, а не просто перечислять их списком. Это позволяет легко верифицировать результат подсчётом и оценить качество интеграции метафор по критерию естественности их вплетения в контекст беседы.

В ходе тестирования выявлено, что текущая модель Qwen3-4B-Instruct-2507-FP8 демонстрирует достаточную гибкость и качество для широкого спектра академических задач — от подготовки учебных пособий до стимулирования дискуссий в научной среде удовлетворяет потребностям университетской среды:
●       при значении температуры 0.0 она обеспечивает строгое выполнение инструкций и стабильность, необходимую для формальных заданий.

Пример ответа:
""**Учёный:** Время — это не линия, а *квантовый поток*, как в квантовой механике: оно может быть в нескольких состояниях одновременно, пока мы не измерим его. \n\n**Художник:** А я вижу его как *мозаику*, как в живописи — каждая секунда — отдельный кусок, и только в целом они становятся сюжетом. \n\n**Учёный:** Время — как *вихрь в жидкости*, как в гидродинамике: оно течёт, но не по прямой, а с вихревыми всплесками, как в космосе. \n\n**Художник:** А мне кажется, время — это *тень*, как в скульптуре: оно не видно, но ощущается, оно отражает свет, который уже прошёл. \n\n**Учёный:** Или, как *волновая функция* — время не существует до момента наблюдения, оно *проявляется* в измерении. \n\n**Художник:** Да, и в этом — сила искусства: мы не видим время, но *чувствуем его отсутствие* — как в тишине перед дождём."".

●       при значении температуры 0.5 достигается оптимальный баланс между структурированностью и творческим разнообразием, что позволяет генерировать как учебные примеры, так и материалы для научно-исследовательской работы с богатой образностью.

Пример ответа:
"**Учёный:** Время — это не линия, а *квантовый поле*, где каждое событие существует в суперпозиции. Как будто часы в замкнутом пространстве — они не текут, а *волнуются*.\n\n**Художник:** А я вижу его как *тень*, которая растягивается по поверхности памяти — как тень от дерева в солнечном луче, не оставляя следа, но оставляя ощущение.\n\n**Учёный:** Время — это *предельный процесс*, как сходимость ряда: оно приближается к настоящему, но никогда не достигает его. Как лимит в математике.\n\n**Художник:** А я создаю его как *светофор* — красный, жёлтый, зелёный, где каждый цвет — это эмоция, а не факт. Время — это не последовательность, а *последовательность чувств*.\n\n**Учёный:** В космосе время — *предельно растянутое измерение*, как пространство в червоточине. Оно искривляется под массой, как лента, скручивающаяся вокруг шара.\n\n**Художник:** И в моих картинах оно — *мазок*, который не сушится, но тает в глазу. Время — не движение, а *открытость* к тому, что ещё не было.".

●       при значении температуры 1.0 результаты могут быть полезны для развития креативного мышления и генерации идей, хотя и требуют последующей экспертной оценки.

Пример ответа:
"**Учёный:** Время — это не линия, а *кварк*, всплывающий из квантового поля, как частица из вакуума. Оно не течёт, оно *вихрево* вращается в симметрии пространства-времени. \n\n**Художник:** А мне кажется, время — это *гравитационный шедевр*: оно растягивается, как пастель на листе, когда мы молчим, и сжимается, как тень в тёмной комнате, когда чувствуем утрату. \n\n**Учёный:** Да, и как *сингулярность* — в центре черной дыры время теряется, но не исчезает, оно просто *изгибается*, как синусоида в уравнении Эйнштейна. \n\n**Художник:** А у меня в голове время — это *последовательность холста*: каждое действие — акт раскраски, и даже несуществующее — оставляет след, как линия в тонкой мазке. \n\n**Учёный:** И если время — *эхо в волновом уравнении*, то оно не только проходит, но *отражается* от границ восприятия. \n\n**Художник:** Потому что в искусстве время — не линия, а *последовательность смысла*, и даже молчание — это гравитационный момент, где всё замедляется."".

3.3. Технический стек пилота
Итоговая архитектура пилотного сервиса представляет собой конвейер из трёх ключевых узлов:
1. vLLM (Backend): обеспечивает высокопроизводительный инференс (60 ток/с) и поддержку протокола OpenAI API для легкой интеграции [22][23].
2. Прокси на FastAPI (Middleware). В настоящее время прокси выполняет функцию маршрутизации и представляет возможности для дальнешего использования как middleware. При этом, предполагается, что функции аутентификации должно выполнять специализированное ИТ-решение.
3. Open WebUI (UI): современный чат-интерфейс, обеспечивающий пользователям (студентам и сотрудникам) привычную среду взаимодействия, аналогичную коммерческим SaaS-решениям [24].

4. Заключение
В ходе проведенного исследования был успешно разработан и запущен прототип системы локального использования (on-premise) генеративного искусственного интеллекта (ГИИ) в закрытом контуре ИТ-инфраструктуры университета. Полученные результаты подтверждают гипотезу о том, что локальное развертывание открытых моделей (open-weight LLM) является жизнеспособным решением, обеспечивающим цифровой суверенитет и полную безопасность чувствительных данных.

Эксперимент продемонстрировал, что даже при использовании ограниченных аппаратных ресурсов (RTX 4070) и технологий квантования (FP8) возможно достижение комфортной производительности (60 токенов/секунду) для моделей малого объема. Это доказывает низкий порог входа в технологию для инженерных и научных групп. Тем не менее, текущая реализация требует дальнейшего масштабирования и дальнейших исследований по следующим направлениям:

●       Масштабирование вычислительных мощностей и переход к серверным решениям:
По причине отсутствия доступа к целевым GPU (2 x L40S (96 Гб VRAM), выдвинута гипотеза, что для обеспечения комфортной работы 8 одновременных пользователей (при целевой скорости не менее 20 ток/сек) потребуется увеличение объема видеопамяти пропорционально числу пользователей, т.е. до 96 ГБ. Это соответствует конфигурации с двумя GPU NVIDIA L40S, объединенными NVLink. Проверка данного предположения требует дальнейших исследований на соответствующем оборудовании.

Приоритетной задачей является переход от индивидуального тестирования к построению полноценных университетских ИИ-сервисов, интегрированных в информационную среду вуза (например, через LMS Moodle или внутренние базы знаний).

●       Юридическая и техническая верификация данных:
Требуется глубокая проработка механизмов дообучения (fine-tuning) на специфических академических данных для повышения точности ответов в узких предметных областях. Также необходимо создание автоматизированных систем проверки входящих и исходящих данных на соответствие действующему законодательству (особенно в части защиты чувствительных данных и этики), а также внедрение регламентов использования ГИИ сотрудниками и студентами.

Литература:
1. Пункт 2 статьи 9 Федерального закона от 27.07.2006 № 149‑ФЗ «Об информации, информационных технологиях и о защите информации» (действующая редакция от 01.01.2026) // Собрание законодательства РФ. — 2006. — № 31. — Ст. 3448 [Электронный ресурс] / Справочно‑правовая система «КонсультантПлюс». URL: https://www.consultant.ru/document/cons_doc_LAW_61798/ (дата обращения: 26.01.2026).
2. Абрамов, М. В. Применение RAG подхода при построении вопросно-ответных систем на примере высшего образования / М. В. Абрамов, Ф. В. Бушмелев, А. П. Попов // Региональная информатика (РИ-2024) : Материалы XIX Санкт-Петербургской международной конференции, Санкт-Петербург, 23–25 октября 2024 года. – Санкт-Петербург: Санкт-Петербургское Общество информатики, вычислительной техники, систем связи и управления, 2024. – С. 382-383. – EDN CRXLYE.
3. Воропаев, С. В. Интеграция генеративного искусственного интеллекта и сокращенной рабочей недели: синергетический подход к повышению производительности труда и благополучия сотрудников в современной рабочей среде / С. В. Воропаев // Universum: технические науки. – 2025. – № 1-1(130). – С. 23-34. – DOI 10.32743/UniTech.2025.130.1.19046. – EDN WTQDMZ
4. Гунина, Н. А. О перспективах использования больших языковых моделей в процессе обучения иностранному языку / Н. А. Гунина // sb_ESP_2023. — Тамбов : Тамбовский государственный технический университет, 2023. — С. 57–61.
5. Ершов, И. С. Применение больших языковых моделей при разработке документации основной профессиональной образовательной программы высшего образования / И. С. Ершов, В. Д. Миляев [и др.] // [Сборник трудов]. — Тюмень : Тюменский индустриальный университет, 2025. — С. 97–99.
6. Зупарова, В. В. Адаптация больших языковых моделей к образовательным задачам: тенденции и методы / В. В. Зупарова, Т. И. Озеров // [Сборник материалов]. — Пенза : Пензенский государственный технологический университет, 2025. — С. 618–633.
7. Личаргин, Д. В. Решение проблемы вариативности при генерации фраз естественного языка на основе двухуровневых шаблонов / Д. В. Личаргин, Е. Б. Чубарева, Н. В. Николаева // Филологические науки. Вопросы теории и практики. — Тамбов : Грамота, 2013. — № 11 (29). — Ч. I. — С. 110–112.
8. Кобелев, С. В. Генеративный искусственный интеллект: интеграция в вузах России и мира / С. В. Кобелев, П. Л. Отоцкий // Профессиональное образование и рынок труда. – 2025. – Т. 13, № 3(62). – С. 127-141. – DOI 10.52944/PORT.2025.62.3.009. – EDN UNYENA.
9. Кочетков, А. П. Цифровой суверенитет как основа национальной безопасности России в глобальном цифровом обществе / А. П. Кочетков, К. В. Маслов // Вестник Московского университета. Серия 12: Политические науки. – 2022. – № 2. – С. 31-45. – EDN BJJUXI.
10. Маркин, Е. И. Использование больших языковых моделей для совершенствования систем часто задаваемых вопросов в высшем образовании / Е. И. Маркин, В. В. Зупарова // [Материалы конференции]. — Пенза : Пензенский государственный технологический университет, 2025. — С. 435–436.
11. Марьясин, О. Ю. Задача оркестрации агентов на базе больших языковых моделей / О. Ю. Марьясин, А. В. Рипнягов // Математические методы в технологиях и технике. — 2025. — № 12-3. — С. 54–57.
12. Николаев, А. А. Искусственный интеллект в системах управления обучением: обзор перспективных направлений применения в высшем и послевузовском образовании / А. А. Николаев, М. Ю. Кузнецов, В. А. Николаев // Управление образованием: теория и практика. – 2025. – № 5-1. – С. 103-111. – DOI 10.25726/p7126-8418-7930-p. – EDN XROYDG.
13. Путин В. В. Выступление на X Международной конференции по искусственному интеллекту (ИИ) и машинному обучению 2025 - «Путешествие в мир искусственного интеллекта» // Официальный сайт Президента Российской Федерации. 19.11.2025 [Электронный ресурс]. URL: http://www.kremlin.ru/events/president/news/78498 (дата обращения: 26.01.2026).
14. Рабчевский, А. Н. Об опыте использования больших языковых моделей в сфере информационного противоборства / А. Н. Рабчевский, Е. Г. Ашихмин // [Сборник научных трудов]. — Пермь : Пермский государственный национальный исследовательский университет, 2024. — С. 18–25.
15. Тимохов, А. Д. Сравнительная оценка эффективности больших языковых моделей в создании текстов академического дискурса / А. Д. Тимохов ; науч. рук. О. А. Сулейманова // [Материалы исследований]. — Москва : МГПУ, 2024. — С. 148–152.
16. Филимонов, В. Ю. Большие языковые модели и их роль в современных научных открытиях / В. Ю. Филимонов // Философские проблемы информационных технологий и киберпространства. — 2024. — № 1 (25). — С. 42–57.
17. Шухман, А. Е. Обучение студентов использованию больших языковых моделей в профессиональной деятельности / А. Е. Шухман, Е. В. Шухман // [Сборник трудов]. — Оренбург : Оренбургский государственный университет, 2024. — С. 186–187.
Иностранные источники
18. Baek, Jaeryang & Hussain, Ayana & Liu, Danny & Vincent, Nicholas & Kim, Lawrence. (2025). Open WebUI: An Open, Extensible, and Usable Interface for AI Interaction. https://arxiv.org/abs/2510.02546 (дата обращения: 25.02.2026). - Текст: электронный.
19. Dubljević, V. Colleges and universities are important stakeholders for regulating large language models and other emerging AI / V. Dubljević // Technology in Society. — 2024. — Vol. 76. — Art. 102480.
20. Joshi, Satyadhar. A Comprehensive Review of Qwen and DeepSeek LLMs: Architecture, Performance and Applications / Satyadhar Joshi // SSRN. — 2025. — Is. 5267655.
21. Kwon, W. (2025). vLLM: An Efficient Inference Engine for Large Language Models. UC Berkeley. https://www2.eecs.berkeley.edu/Pubs/TechRpts/2025/EECS-2025-192.pdf (дата обращения: 25.02.2026). - Текст: электронный.
22. Qwen Team. Qwen3-VL Technical Report : [white paper] / Qwen Team. — 2025. — URL: https://github.com/QwenLM/Qwen3-VL (дата обращения: 26.02.2026).
23. Radas, J. Building UniGPT: A Customizable On-Premise LLM-Solution for Universities / J. Radas, B. Risse, R. Vogl // EPiC Series in Computing. — 2025. — Vol. 105 : Proceedings of EUNIS 2024 annual congress in Athens. — P. 108–116.

24. Zesch, T. FernUni LLM Experimental Infrastructure (FLEXI) – Enabling Experimentation and Innovation in Higher Education Through Access to Open Large Language Models / T. Zesch [et al.] // arXiv preprint. — 2024. — arXiv:2407.13013v1.

ВОПРОСЫ И КОММЕНТАРИИ
Система комментирования SigComments
Made on
Tilda