К началу 80-х годов Нариньяни разработал основы технологии недоопределенных моделей (ныне трактуемой как разновидность появившегося позднее программирования в ограничениях), которая вместе с семантически-ориентированным анализом естественного языка, методами обработки знаний на основе логического вывода и технологией построения интеллектуальных систем до сегодняшнего дня плодотворно питает тематику его группы по развитию искусственного интеллекта (ИИ). В особый институт лаборатория ученого стала разворачиваться в 1988 году — во время второго возможного (но так и не состоявшегося) рывка СССР в развитии.
(ПРИМЕЧАНИЕ. В числе первых проектов лаборатории Нариньяни в 70-80-е годы были:
* МИША: шагающий автомат с недетерминированным управлением, основанном на значительно опередившем свое время методе удовлетворения интервальных ограничений,
* РИТА: экспериментальная система перевода словесного описания в рисунок,
* ВОСТОК: конструктор экспертных систем со встроенным специальным программным процессором для обработки информации, связанной со временем,
* BUMP: система продукционного программирования с возможностью многовариантного анализа,
* ЗАПСИБ и InterBase: конструкторы эффективных лингвистических процессоров, основанные на семантически-ориентированном анализе в рамках тематически замкнутой предметной области,
* СЕТЛ: система программирования на основе теоретико-множественного языка, которая развивалась в рамках советско-американского проекта,
* СТЕНД: программная обстановка для конструирования интеллектуальных систем на основе интеграции виртуальных процессоров.
К началу работ по проекту СТАРТ и в ходе его выполнения указанные направления и системы получили дальнейшее развитие и воплотились в системы нового поколения. Сегодня их потомки — УНИКАЛЬК, НЕМО+, СЕМП, ТАО и др. — являются основными проектами Лаборатории ИИ ИСИ и Российского научно-исследовательского института искусственного интеллекта (РосНИИ ИИ), организованного А.С.Нариньяни.
Технологический комплекс конструирования расчетно-логических систем на основе недоопределенных моделей НеМо-ТеК (ТХК НеМо-ТеК) создан В.Е.Дмитриевым и Д.М.Ушаковым под руководством В.В.Телермана.
Система НеМо-ТеК предназначена для технологической поддержки создания проблемно-ориентированных расчетных систем (вычислителей) на основе недоопределенных моделей.
Наследник НеМо-ТеК — объектно-ориентированная система программирования НеМо+ — в 1998 году была отмечена Российской ассоциацией искусственного интеллекта как лучшая система года.
DI*GEN — оболочка для конструирования диагностических экспертных систем — создана группой разработчиков под руководством Т.М.Яхно. Она предназначена для создания диагностических экспертных систем. В DI*GEN используется комбинация продукционного и объектно-ориентированного способов представления знаний.
Технологический комплекс для создания развитых систем обработки знаний — Semp-Tec разработан под руководством Ю.А.Загорулько. Он предназначен для создания семантических процессоров — программных систем, обеспечивающих эффективное представление и обработку знаний на основе семантических сетей и систем продукций. Поддерживаемая Semp-Tec технология позволяет разрабатывать семантические процессоры, которые могут быть использованы в качестве интеллектуального ядра экспертных систем, логических баз данных и знаний, развитых САПР, систем управления технологическими процессами, тренажеров и др.
В настоящее время комплекс Semp-Tec получил свое развитие в виде объектно-ориентированной программной среды Semp-TAO, модель представления знаний которой, кроме классических средств представления и обработки знаний, включает методы программирования в ограничениях.)
Нариньяни уверен: в информационных тенологиях сегодня нарастает кризис. С одной стороны, машины уменьшаются и ежегодно наращивают свою мощность. Но все это наталкивается на устаревшие принципы комьютерного дела. Со времен фон Неймана все вертится вокруг Великого Алгоритма. Точнее, вокруг четыре «незыблемых опор». Вот они:
* Последовательный детерминированный процесс,
* Современная объектно-ориентированная технология программирования,
* Фон-нейманова архитектура компьютера,
* Традиционная вычислительная математика.
«…Реальный мир устроен совершенно иначе. Каждый его компонент — элементарная частица, клетка организма, человек в социальной структуре, планета или галактика — это автономный активный объект, участвующий в параллельном, асинхронном, децентрализованном процессе взаимодействия с другими активными объектами своего уровня.
Современная организация информационных технологий (ИТ) полностью противоположна этому естественному порядку: она пытается контролировать любую систему из единого центра, последовательно и жестко указывая каждому элементу что и когда ему делать.
Эта тупиковая парадигма блокирует развитие всех основных составляющих ИТ: архитектуру компьютера и технологию программирования, организацию данных и их потоков в сетях, системы менеджмента и управление сложными системами. Многочисленные попытки ее перестройки не связаны пока с радикальной сменой фарватера. Мы постоянно слышим, что развитие ИТ достигло этапа, на котором не предвидится новых больших скачков (кроме технологий аппаратных элементов) и задача которого ограничивается развитием имеющегося опыта и расширением сферы его практического применения…» — пишет сам ученый:
«…Эта тупиковая парадигма блокирует развитие всех основных составляющих ИТ: архитектуру компьютера и технологию программирования, организацию данных и их потоков в сетях, системы менеджмента и управление сложными системами. Многочисленные попытки ее перестройки не связаны пока с радикальной сменой фарватера. Мы постоянно слышим, что развитие ИТ достигло этапа, на котором не предвидится новых больших скачков (кроме технологий аппаратных элементов) и задача которого ограничивается развитием имеющегося опыта и расширением сферы его практического применения.
Однако это отнюдь не соответствует истине. Ощущение вечности устоев довольно характерно для окрестностей точек бифуркации («точке катастрофы», пункте, где поведение сложной системы становится малопредсказуемым): достаточно вспомнить начало 60-х годов, когда программирование в кодах казалось основной формой ИТ на необозримую перспективу. И навсегда ушло в историю всего через несколько лет.
На этот раз мы близки к точке бифуркации, глобальной для всего комплекса ИТ. Уже сформировались и активно развиваются качественно новые технологии, базирующиеся на неалгоритмическом процессе управления по данным (data-driven), обладающим естественной параллельностью и недетерминизмом. Революция, на пороге которой мы стоим, обещает полностью сменить сегодняшнюю парадигму, вплоть до радикальной перестройки аппарата вычислительной математики, сравнимой по своей незыблемости разве что с географией…»
В восьмидесятые годы Нариньяни с товарищами подошли к порогу создания нового принципа работы компьютеров, основанного не на алгоритме, а на НЕ-факторах (неопределенных, некорректных, недостаточно формализованных комплексах свойств знаний о реальном мире). На основании этого затем Нариньяни создал технологию так называемых Н-моделей. «В то же время, остальные НЕ-факторы, тесно связанные между собой и играющие не менее важную роль в приложениях, остаются практически не разработанными (меньшинство) или вообще не известными. Представляется, что изучение НЕ-факторов, создание адекватных формальных средств и организация их в единый комплекс сыграют для ИТ не менее революционную роль, чем переход от алхимии к современной химии…» — пишет наш выдающийся исследователь.