Компьютер и человек. Нужны ли улучшения в общении?

Компьютер и человек.
Нужны ли улучшения в общении?


Проблема реализации полноценного дружественного общения с роботами и окружающими нас электронными приборами сейчас на пике популярности. Практически все ведущие научные лаборатории мира занимаются системами распознавания речи, образов, настроения. Подходы к решению проблем несколько различны, основные исследования ведутся на базе компьютеров, и их основной задачей является реализация программного анализа и реагирования электронной системы на движения, речь и мысли человека. На кону — улучшения взаимодействия компьютера и человека.

Стандартная реализация
Системы распознавания речи уже прошли этап исследований и теперь находятся на уровне улучшения стандартов и промышленного применения. Не секрет, что в компьютер можно диктовать текст с микрофона, включать свет голосовой командой, звонить по телефону, произнеся имя нужного абонента. Сейчас много опытов ведется в области видео. Современные электронные системы научились распознавать образы, отличать движущиеся объекты от стационарных. Выделив какой-либо объект, можно определить расстояние до него с помощью ультразвуковых датчиков. Если такой интеллект, включающий все эти модули, например, будет встроен в обыкновенный домашний телефон, то это устройство сможет анализировать ситуацию и как вариант само включать/отключать громкую связь.
Телевизор может автоматически регулировать громкость и т.п. Конечно, встраивать такую дорогую вещь в небольшое электронное устройство — не тот уровень.
На практике мы скоро сможем получить интеллектуальную систему домашнего управления. То есть все устройства: холодильник, акустические системы, телевизор, коммуникации, освещение, — могут управляться единым разумом. Говоря об этом, я знаю, что это уже не сказка, и читатель мне верит. При этом стоит отметить, что в качестве главного управляющего устройства пока принимают РС.
Общение пока происходит на уровне команд, по типу того, как мы манипулируем мышью. Система же должна реагировать не только на команды и, кроме того, анализировать и такие вещи, как настроение человека — таково мнение многих ученых.

Системы распознавания эмоций
Современные исследования в области компьютерного распознавания человеческих эмоций основаны на анализе трех их проявлений: речевого, визуального и физиологического. Начиная с 95 года прошлого века в лаборатории MIT под руководством Розалинды Пикард ведутся исследования под названием Affective Computing (Эмоциональные Компьютеры).
Одним из интересных проектов, реализованных данной лабораторией, является AffQuake. На базе игры Quake II разработчики и исследователи создали интерактивную модель. Изображение персонажа на экране компьютера было напрямую связано с эмоциями человека-игрока, предусмотрительно обвешанного датчиками. Таким образом, если игрок боялся, то это передавалось и на его компьютерного персонажа — тот отступал назад.
С системами распознавания интонаций голоса ситуация обстоит не лучшим образом. Мы можем анализировать изменения в тембре голоса, скорость речи и изменения высоты тона. Но это не может дать достоверной картины.
Видеосистема распознавания выражения лица также не может являться эталоном, поскольку неизвестно тогда, как поступать с актерами и игроками в покер, которые, как известно, могут менять выражение лица и подделывать эмоции.
А вот в Великобритании недавно стартовал другой проект, ERIC (Emotion Recognition for Interaction With Computers, что в переводе будет звучать как "распознавание эмоций для взаимодействия с компьютерами") под управлением доктора Кейт Хорн.
В отличие от MIT, британцы сильно осторожничают, прощупывают почву. Одной из первичных задач проекта является исследование — будут ли люди выражать эмоции естественным образом, зная, что они взаимодействуют с компьютером. Результатов пока нет. Думаю, на данном этапе ученые уперлись в скалу, поскольку проблема не из легких. И если ответом на поставленный вопрос станет то, что люди будут обманывать компьютер, все пойдет насмарку. И данное направление закроют.
Гораздо веселее обстоит дело с исследованиями ритмов мозговой деятельности человека...

Управление с помощью мозга
Управление компьютерными системами с помощью мозга имеет гораздо лучшие перспективы. Швейцарский институт Dalle Molle Institute for Perceptual Artificial Intelligence ведет работы по классификации ритмов мозговой активности. На данном этапе выделяют ритмы по частотным характеристикам, а именно дельта, тета, альфа и бета. Благодаря амплитудно-частотному анализу электрической деятельности мозга можно делать выводы о степени его активности. Как результат — можно считать данные, соотвествующие определенной мысли или команде, и, что звучит еще более футуристично, сделать их расшифровку.
Таким образом, в результате мы можем получить не только управление компьютером с помощью мозговых ритмов, но и заменить нервные волокна электродами, что будет панацеей для людей, больных параличом. Нужно отметить, что швейцарцы причисляются к революционерам в данной области. И если их исследования увенчаются успехом, мы, человечество, получим гораздо худший эффект — наши мысли можно будет прочитать. Это покруче всяких там детекторов лжи.

Завершение
Сказал бы я... Проблема общения компьютера и человека на уровне эмоций звучит сегодня несколько утопично. Но исследователи в этой области не унывают и постепенно воздвигают свою нишу. По крайней мере, грантов получено много, и исследования идут. При этом немаловажную роль играет популяризация данных тем в СМИ. Раскрутка новой научной темы соизмерима с раскруткой поп-звезды.
Но, как видим, огромен и обратный эффект.

Кристофер-2002,
christopher@tut.by



Компьютерная газета. Статья была опубликована в номере 18 за 2003 год в рубрике разное :: роботика

©1997-2024 Компьютерная газета