Porque é que os assistentes de voz não o deixam mudar a palavra detonadora ("Ok Google", "Alexa", etc.)?
Os dispositivos estão sempre a ouvir activamente estes gatilhos. Isso significa que eles precisam processar o áudio que chega - transormar formas de onda brutas até um ponto onde ele possa ser reconhecido como "Hey Siri". Se você fizer isso em software é muito computacionalmente caro - ele é lento e drena a bateria. Uma maneira de abordar este problema é ter um reconhecedor que tenha uma sobrecarga computacional mínima. Mas claro que isso irá limitar as suas capacidades - não será super-rápido, ultra-rápido, ou não será um reconhecimento de fala universal (Babel fish), ou seja, irá compreender apenas alguns padrões pré-definidos. Portanto, os nossos dispositivos são accionados apenas quando são endereçados. No entanto, quando tivermos um hardware especial concebido para o reconhecimento da fala, esta limitação do software desaparecerá. E ele levanta possibilidades totalmente novas - muito além de mudar a forma como você convoca seu assistente de voz.
Há um ótimo artigo sobre este assunto no Apple Machine Learning Journal - Hey Siri: Um gatilho de voz no dispositivo com alimentação DNN para o Assistente Pessoal da Apple - Apple
Artigos semelhantes
- Quais são as melhores extensões do navegador Chrome para assistentes administrativos ou assistentes pessoais?
- Porque é que os nossos pais não nos deixam ter telefones, mas deixam os nossos irmãos mais velhos terem um? Isso não faz sentido.
- Porque é que nenhuma estrela cria aplicações assistentes de voz como o Google Assistant?
- Qual seria o próximo passo para assistentes de IA como Alexa, Google Home, e Siri?