В .NET существует два похожих пространства имен и ассемблирования для распознавания речи. Я пытаюсь понять различия и когда это целесообразно использовать один или другой.
Появляется System.Speech.Recognition из сборки System.Speech(в System.Speech.dll). System.Speech.dll является базовой DLL в библиотеке классов .NET Framework 3.0 и более поздней версии
Существует также Microsoft.Speech.Recognition из сборки Microsoft.Speech(в microsoft.speech.dll). Microsoft.Speech.dll является частью UCMA 2.0 SDK
Я считаю, что документы запутаны, и у меня есть следующие вопросы:
System.Speech.Recognition говорит, что это для "Windows Desktop Speech Technology", означает ли это, что он не может использоваться на серверной ОС или не может использоваться для высокопроизводительных приложений?
В UCMA 2.0 Speech SDK (http://msdn.microsoft.com/en-us/library/dd266409%28v=office.13%29.aspx) говорится, что для Microsoft Office Communications Server 2007 R2 требуется предварительное условие. Тем не менее, на конференциях и встречах мне сказали, что, если мне не нужны функции OCS, такие как присутствие и рабочий процесс, я могу использовать API-интерфейс UCMA 2.0 без OCS. Это правда?
Если я создаю приложение простого распознавания для серверного приложения (скажем, я хочу автоматически записывать голосовую почту), и мне не нужны функции OCS, каковы различия между этими двумя API?