Что касается того, «понимает» или «не понимает» компьютер текст, который он выдает на экран или принимает от пользователя, то здесь вопрос очень и очень спорный. Конечно, в полной мере, как понимает текст человек-профессионал, компьютер текста не понимает:
у машины нет социальных или личных мотивов, «знаний жизни»;
машина не знает ни Ивана Степановича лично, ни литейного производства, ни семейных отношений, ни последствий болезни.
Но ту информацию, которую дает пользователь, машина в данном случае понимает точно, хотя, как говорится, «на поверхностном уровне». Ведь в ответ на вопрос о состоянии Петрова машина не выдает данных о числе слонов в зоопарке! Если обратиться к медицинской практике консилиума, то в профессиональном разговоре кардиологов тоже будут лишними соображения, не относящиеся прямо к ситуации постановки диагноза: люди будут говорить только о том, о чем только что беседовал пользователь с компьютером. Причем если это необходимо, то в память машины (в «банк знаний» и в «банк данных») можно ввести и такие обстоятельства жизни Петрова, о которых пока не шла речь: обо всех его болезнях, об условиях труда, об отношениях в семье, о наследственности…
Что касается людей-специалистов, то они в своих профессиональных разговорах тоже ведь вполне «запрограммированы», т.е. получили знания из книг, лекций, собственного и чужого опыта. Вот эти все знания «добывают» из них (в данном случае от медиков) специальные «инженеры по знаниям», т.е. кибернетики, для того, чтобы затем ввести эти знания в машинную программу, в эксперт-систему. Поэтому нет смысла в данном случае различать «банк знаний» машины и запас знаний человека: все, что в принципе можно получить от человека-специалиста, можно и нужно ввести в «банки знаний» эксперт-систем.
Легко понять, что существуют не только медицинские эксперт-системы, но и системы в области архитектуры, геологии, археологии, различных инженерных технологий. Скажем, работающая в Тартуском университете эксперт-система «Датум» является консультантом в области юридической, а поэтому в ее «банке знаний» есть законодательство, материалы различных дел, относительно которых можно выяснить степень аргументированности судебного приговора в зависимости от состава преступления, наличия доказательств вины и т. п.
Таким образом, можно, так сказать, «с легкой душой» утверждать, что эксперт-системы способны к общению с человеком, хотя и отличаются от него отсутствием собственных мотивов и эмоций. Естественно, что машина не умеет намеренно лгать, не умеет маскировать собственные намерения, иронизировать, преследовать личные цели или переводить разговор на иные темы.
Но нужно ли такое умение пользователю?