目录搜索
导论前言为什么学习JavaScriptJavaScript的历史基本语法语法概述数值字符串对象数组函数运算符数据类型转换错误处理机制JavaScript 编程风格标准库Object对象包装对象和Boolean对象Number对象String对象Math对象Date对象RegExp对象JSON对象ArrayBuffer:类型化数组面向对象编程概述封装继承模块化编程DOMNode节点document节点Element对象Text节点和DocumentFragment节点Event对象CSS操作Mutation Observer浏览器对象浏览器的JavaScript引擎定时器window对象history对象Ajax同域限制和window.postMessage方法Web Storage:浏览器端数据储存机制IndexedDB:浏览器端数据库Web Notifications APIPerformance API移动设备APIHTML网页元素Canvas APISVG 图像表单文件和二进制数据的操作Web Worker服务器发送事件Page Visibility APIFullscreen API:全屏操作Web SpeechrequestAnimationFrameWebSocketWebRTCWeb ComponentsHTML网页的APIHTML网页元素Canvas APISVG 图像表单文件和二进制数据的操作Web Worker服务器发送事件Page Visibility APIFullscreen API:全屏操作Web SpeechrequestAnimationFrameWebSocketWebRTCWeb Components开发工具console对象PhantomJSBower:客户端库管理工具Grunt:任务自动管理工具Gulp:任务自动管理工具Browserify:浏览器加载Node.js模块RequireJS和AMD规范Source MapJavaScript 程序测试JavaScript高级语法Promise对象有限状态机MVC框架与Backbone.js严格模式ECMAScript 6 介绍附录JavaScript API列表
文字

    • 概述

    • SpeechRecognition对象

    • 事件

    • 参考链接

概述

这个API用于浏览器接收语音输入。

它最早是由Google提出的,目的是让用户直接进行语音搜索,即对着麦克风说出你所要搜索的词,搜索结果就自动出现。Google首先部署的是input元素的speech属性(加上浏览器前缀x-webkit)。

<input id="query" type="search" class="k-input k-textbox" 
 x-webkit-speech speech />

加上这个属性以后,输入框的右端会出现了一个麦克风标志,点击该标志,就会跳出语音输入窗口。

由于这个操作过于简单,Google又在它的基础上提出了Web Speech API,使得JavaScript可以操作语音输入。

目前,只有Chrome浏览器支持该API。

SpeechRecognition对象

这个API部署在SpeechRecognition对象之上。

var SpeechRecognition = window.SpeechRecognition || 
                        window.webkitSpeechRecognition || 
                        window.mozSpeechRecognition || 
                        window.oSpeechRecognition || 
                        window.msSpeechRecognition;

为了将来的兼容性考虑,上面的代码列出了所有浏览器的前缀。但是实际上,目前只有window.webkitSpeechRecognition是可用的。

确定浏览器支持以后,新建一个SpeechRecognition的实例对象。

if (SpeechRecognition) {       
  var recognition = new SpeechRecognition();
  recognition.maxAlternatives = 5;
}

maxAlternatives属性等于5,表示最多返回5个语音匹配结果。

事件

目前,该API部署了11个事件。下面对其中的3个定义回调函数(假定speak是语音输入框)。

var speak = $('#speak');

recognition.onaudiostart = function() {
  speak.val("Speak now...");
};

recognition.onnomatch = function() {
  speak.val("Try again please...");
};

recognition.onerror = function() {
  speak.val("Error. Try Again...");
};

首先,浏览器会询问用户是否许可浏览器获取麦克风数据。如果用户许可,就会触发audiostart事件,准备接收语音输入。如果找不到与语音匹配的值,就会触发nomatch事件;如果发生错误,则会触发error事件。

如果得到与语音匹配的值,则会触发result事件。

recognition.onresult = function(event) { 

  if (event.results.length > 0) { 

    var results = event.results[0], 
        topResult = results[0];    if (topResult.confidence > 0.5) {
      speechSearch(results, topResult);
    } else {
      speak.val("Try again please...");
    }
  }
};

result事件回调函数的参数,是一个SpeechRecognitionEvent对象。它的results属性就是语音匹配的结果,是一个数组,按照匹配度排序,最匹配的结果排在第一位。该数组的每一个成员是SpeechRecognitionResult对象,该对象的transcript属性是实际匹配的文本,confidence属性是可信度(在0与1之间)。

参考链接


上一篇:下一篇: