Есть ли способ использовать распознавание речи iOS в автономном режиме?

Я хочу знать, есть ли способ использовать распознавание речи iOS в автономном режиме. Согласно документации (https://developer.apple.com/reference/speech) я ничего не видел об этом.

Ответ 1

Я боюсь, что нет способа сделать это (однако, пожалуйста, обязательно проверьте обновление в конце ответа).

Как упоминалось в Официальная документация по официальной документации:

Лучшие практики для отличного пользовательского опыта:

Будьте готовы к устранению сбоев, которые могут быть вызваны достижением пределов распознавания речи. Поскольку распознавание речи является сетевым сервисом, ограничения чтобы служба могла оставаться свободно доступной для всех приложений.


Как перспектива конечного пользователя, попытка получить помощь Siri без подключения к сети должна отображать экран, похожий на:

введите описание изображения здесь

Кроме того, при попытке отправить массаж, например, вы заметите, что кнопка mike должна быть отключена, если устройство не подключено к сети.

введите описание изображения здесь

В самом деле, сам iOS не сможет использовать эту функцию до тех пор, пока не проверит сетевое подключение, я предполагаю, что это будет то же самое для стороннего разработчика при использовании речевой платформы.


UPDATE:

После просмотра Session API распознавания речи (особенно, часть 03:00 - 03:25), я придумал:

API распознавания речи обычно требует подключения к Интернету, но некоторые из новых устройств поддерживают эту функцию все время; Возможно, вам захочется проверить, доступен ли данный язык или нет.

Адаптировано из Документация SFSpeech Recognizer:

Обратите внимание, что поддерживаемый распознаватель речи не совпадает с доступный распознаватель речи; например, распознаватели для некоторых для локалей может потребоваться подключение к Интернету. Вы можете использовать supported​Locales(), чтобы получить список поддерживаемых локалей и is​Available, чтобы узнать, распознает ли распознаватель конкретный доступен языковой стандарт.


Дальнейшее чтение:

Эти темы могут быть связаны:

Ответ 2

Автономная транскрипция будет доступна, начиная с iOS 13. Вы включаете ее с помощью requiresOnDeviceRecognition.

Пример кода (Swift 5):

// Create and configure the speech recognition request.
recognitionRequest = SFSpeechAudioBufferRecognitionRequest()
guard let recognitionRequest = recognitionRequest else { fatalError("Unable to create a SFSpeechAudioBufferRecognitionRequest object") }
recognitionRequest.shouldReportPartialResults = true

// Keep speech recognition data on device
if #available(iOS 13, *) {
    recognitionRequest.requiresOnDeviceRecognition = true
}

Ответ 3

Я использую распознавание речи в моем IPad 2018 в автономном режиме в сборке диктовки в приложении и приложении voicenotebook