"Яндекс" запустил масштабный эксперимент, чтобы выяснить, могут ли искусственные интеллекты обрести сознание
Статья | 20:54 22.11.2025 | Просмотры: 63
Учёные и инженеры по всей Земле задаются вопросом: способен ли ИИ осознавать себя? Российская компания "Яндекс" решила провести эксперимент, который может пролить свет на эту тему.
Исследователи хотят понять, может ли модель искусственного интеллекта формировать внутренние убеждения, как это делает человек. Для этого они будут обучать модель на ее собственных рассуждениях. Если это удастся, ИИ смогут давать более последовательные ответы и отстаивать свою точку зрения.
Основная гипотеза проекта заключается в том, что глубокая рефлексия и обучение на собственных размышлениях могут привести к появлению у модели внутренних предпочтений. Это позволит ей не просто генерировать ответы, а по-настоящему осмысливать информацию.
«Есть надежда создать модель с собственной точкой зрения, а не просто имитировать человеческие убеждения», — говорит Александр Крайнов, директор по развитию технологий искусственного интеллекта "Яндекса".
Одной из целей этого исследования является изучение природы человеческого мышления. Исследователи хотят понять, как работает человеческий разум, и создать "песочницу" для его изучения.
«У нас никогда не было работающей модели человеческого разума, пусть и примитивной», — отмечает Крайнов.
Такие эксперименты также полезны и для нейробиологов. Поэтому, в проекте участвует нейробиолог Константин Анохин.
К исследованиям также присоединились data-science специалисты из Лаборатории искусственного интеллекта "Яндекса", а также студенты и преподаватели Школы анализа данных (ШАД). Первые эксперименты показали, что "Алиса" не способна формировать стабильные предпочтения без дополнительного обучения.
В ближайшее время исследователи приступят к основному этапу эксперимента. Они будут побуждать модель к рефлексии и мотивировать ее учиться на собственных размышлениях.
«Очень увлекательно наблюдать, как данные влияют на поведение моделей», — говорит Алексей Толстиков, руководитель Школы анализа данных известной многим российской IT-корпорации.
Исследователи тестируют разные открытые модели, включая решения "Яндекса". Они выбрали опенсорсные решения, чтобы обеспечить прозрачность и воспроизводимость эксперимента.
Некоторые модели обладают навыком рассуждения. Ученые предполагают, что в процессе логических размышлений они смогут самостоятельно приходить к выводам. Участники проекта не ограничивают модель, а позволяют ей сохранять естественную способность рассуждать.
«Изучение мышления и логики — захватывающая область, которая может открыть новые возможности для искусственного интеллекта и понимания человека», — отмечает Толстиков.
Авторы эксперимента надеются получить первые результаты до конца года.