Мы используем файлы cookies для улучшения работы сайта НИУ ВШЭ и большего удобства его использования. Более подробную информацию об использовании файлов cookies можно найти здесь, наши правила обработки персональных данных – здесь. Продолжая пользоваться сайтом, вы подтверждаете, что были проинформированы об использовании файлов cookies сайтом НИУ ВШЭ и согласны с нашими правилами обработки персональных данных. Вы можете отключить файлы cookies в настройках Вашего браузера.
Москва, Мясницкая 11,
+7 (495) 621-28-73,
issek@hse.ru
Абашкин В. Л., Абдрахманова Г. И., Вишневский К. О. и др.
М.: НИУ ВШЭ, 2025.
Гохберг Л. М., Дитковский К. А., Евневич Е. И. и др.
М.: ИСИЭЗ НИУ ВШЭ, 2025.
Абашкин В. Л., Абдрахманова Г. И., Вишневский К. О. и др.
М.: НИУ ВШЭ, 2025.
Власова В. В., Гохберг Л. М., Грачева Г. А. и др.
М.: ИСИЭЗ НИУ ВШЭ, 2025.
Вишневский К. О., Туровец Ю. В., Гохберг Л. М.
М.: Издательский дом НИУ ВШЭ, 2025.
Гохберг Л. М., Кузнецова Т. Е., Мильшина Ю. В. и др.
М.: Издательский дом НИУ ВШЭ, 2024.
Jonathan Calof, Colton B.
Technological Forecasting and Social Change. 2024. Vol. 198.
Веселитская Н. Н., Шашнов С. А.
Форсайт. 2024. Т. 18. № 1. С. 80-91.
Научный руководитель НИУ ВШЭ Ярослав Кузьминов и старший преподаватель Екатерина Кручинская открыли сессию и представили результаты исследования, посвящённого возможностям применения больших языковых моделей (LLM) для решения профессиональных задач. Оказалось, что даже самый продвинутый ИИ — например, чат GPT или GigaChat — отвечает правильно лишь на 40–55% вопросов. Более половины компаний осознают эти риски, а кроме того, отмечают проблемы с кибербезопасностью. Однако лишь 30% организаций работают над снижением этих рисков.
Исследователи разработали собственный бенчмарк — систему оценки уровня профессионализма ИИ по четырем критериям: прикладные знания, когнитивная гибкость, валидация экспертами, способность к логическому рассуждению.
Ярослав Кузьминов
«По этим критериям мы проверили три гипотезы, объясняющие ошибки ИИ. Выяснилось, что сложность и тип задач не сильно влияют на точность ответов моделей. Нейросеть пока не может стабильно отвечать на профессиональные вопросы. Однако у нас есть предложения, как улучшить ситуацию. Во-первых, необходимо создать ядро знаний — область, где модель не допускает ошибок. Во-вторых — разработать адекватные метрики эффективности для рабочих задач, от рутинных до сложных. И наконец, важно тестировать ИИ в различных контекстах. Профессионалы часто вынуждены принимать решения в условиях неопределенности, такой стресс-тест нужен и искусственному интеллекту».
Каэтано Пенна, аналитик Центра стратегических исследований и управления в области науки, технологий и инноваций Бразилии, рассматривает ИИ с точки зрения глобальной политики и экономики. По его мнению, государства всё больше стремятся к технологическому суверенитету, регулируют ИИ и участвуют в формировании цифровых стандартов. С наступлением новой технологической революции государствам предстоит не только инвестировать в искусственный интеллект, но и защищать общество от возможных негативных последствий цифровизации — неравенства, утраты конфиденциальности и других социальных и этических проблем. «Государства должны балансировать между инновациями и защитой общества, чтобы избежать кризисов и обеспечить устойчивое развитие», — подчеркнул докладчик.
Олеся Майбах, заведующая отделом методологии и организации форсайт-исследований Форсайт-центра ИСИЭЗ НИУ ВШЭ, представила результаты совместной работы со Сбером и Координационным центром Правительства РФ. Эксперты провели комплексный анализ структуры областей, связанных с искусственным интеллектом, и сформировали повестку перспективных фундаментальных исследований. В фокусе будущего — безопасность, этика, работа с данными, новые архитектуры и интерфейсы для взаимодействия с ИИ, а также интерпретируемость моделей.
Олеся Майбах
«Кроме того, среди потенциально новых исследовательских задач можно выделить развитие так называемых AI scientists — интеллектуальных систем, способных автономно проводить научные исследования и эффективно решать комплексные междисциплинарные задачи».
Продолжая дискуссию о будущем ИИ, особенно в контексте вопросов этики и безопасности, Оздчан Саритас, профессор ИСИЭЗ НИУ ВШЭ и директор по прогнозированию будущего в Рочестерском технологическом институте в ОАЭ, рассказал о применении искусственного интеллекта в правоохранительной сфере на примере полиции Дубая.
Оздчан Саритас
«ИИ уже сегодня помогает предотвращать преступления, управлять дронами и повышать уровень кибербезопасности. Однако по мере развития ИИ все большее значение приобретают вопросы конфиденциальности и ответственного подхода к использованию технологий».
Эксперты заключили, что будущее искусственного интеллекта зависит не только от технологических достижений, но и от способности общества обеспечить его этичное, безопасное и ответственное внедрение.