讯飞讯飞微信关闭语音输入入能与第三方设备接口吗?

讯飞语音的使用及常遇到的问题
讯飞语音是科大讯飞推出的以语音交互技术为核心的人工智能开放平台,为开发者免费提供语音识别、语音合成等语音技术SDK,人脸识别、声纹识别等。
最常遇到问题:
一、错误码21001,没有安装语音组件(在最下方有全部的错误码和解决方案)
解决方案:
1、有没有使用SpeechUtility.createUtility()设置appid。
2、有没有将libmsc.so放到工程中。
3、如果使用的是讯飞语音+的本地功能,有没有安装讯飞语音+。
4、如果设备是android 5.0及其以上,需要将工程中的armeabi和armeabi-v7a文件夹中都放上libmsc.so,如果你下载的SDK中没有armeabi-v7a对应的库,可以将armeabi中的libmsc.so复制一份到armeabi-v7a文件夹中。
5、SpeechUtility.createUtility()如在Application中调用,需要在Mainifest中注册该Applicaiton。此方法不是必须在Appcation中调用,可在需要使用语音能力之前,例如进入语音搜索页面调用。
6、使用Android Studio的开发者注意将so放在jniLib目录下,或者在配置文件中指定so加载的路径。
二、错误码:10407,用户校验失败
原因:是因为没有下载跟应用名称对应的sdk,讯飞语音一个应用对应一个sdk,所以要下载跟我开发的应用名称相对应的sdk,将其lib库考到project的libs文件夹下。也就是首先对照注册的appid与在Application初始化中的appid是不是一样。
三、错误码:11208,授权应用失败
原因:先检查appid的申请时间(35天期限),还要注意所有的资源文件都是最新的。
使用步骤:
一、讯飞语音SDK的获取
讯飞语音官网:http://www.xfyun.cn/
集成讯飞功能的流程(实际上集成大部分开发平台的SDK,其流程都是如此)
填写信息方可使用第三方平台提供功能
语音听写,创建应用
选择自己应用的功能
选择对应功能的SDK,进行下载
最终的应用信息,注意要记住appid
下载后的文件夹,其中assets是图片资源,doc是官方文档及使用说明(下面代码和注释都是用的官方使用文档)
libs是我们需要拷贝到项目中的资源,sample是一个些demo。
二、导入SDK
将下载的开发工具包中libs目录下的Msc.jar和armeabi(实际还有多个文件,全部拷贝进来,以便机型适配)复制到Android工程的libs目录。
三、在项目build.gradle文件的android{}内,配置下面一段代码,同步一下gradle文件。
empty sourceSets{
jniLibs.srcDir'libs'
四、在清单文件进行权限配置
&!--连接网络权限,用于执行云端语音能力 --&
&uses-permission android:name="android.permission.INTERNET"/&
&!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 --&
&uses-permission android:name="android.permission.RECORD_AUDIO"/&
&!--读取网络信息状态 --&
&uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/&
&!--获取当前wifi状态 --&
&uses-permission android:name="android.permission.ACCESS_WIFI_STATE"/&
&!--允许程序改变网络连接状态 --&
&uses-permission android:name="android.permission.CHANGE_NETWORK_STATE"/&
&!--读取手机信息权限 --&
&uses-permission android:name="android.permission.READ_PHONE_STATE"/&
&!--读取联系人权限,上传联系人需要用到此权限 --&
&uses-permission android:name="android.permission.READ_CONTACTS"/&
&!-- 如需使用人脸识别,还要添加:摄相头权限,拍照需要用到 --&
&uses-permission android:name="android.permission.CAMERA" /&
五、为了便于快速开发,SDK提供了一套默认的语音输入UI,若使用,请将SDK资源包assets下的文件拷贝至项目的asstes目录下(studio没有,就把assets复制到src-&main下)。
六、初始化讯飞语音SDK:
只有初始化后才可以使用MSC的各项服务。建议将初始化放在程序入口处(如Application、Activity的onCreate方法),初始化代码如下(注意在清单文件中注册Application,这里的appid就是上面注册的appid):
public class MyApplication extends Application {
public void onCreate() {
// 将“”替换成您申请的 APPID,申请地址:http://www.xfyun.cn
// 请勿在“=”与 appid 之间添加任务空字符或者转义符
SpeechUtility.createUtility(this, SpeechConstant.APPID + "=586365ef");
super.onCreate();
七、执行识别语音为文字的的逻辑代码(放到点击事件中):
//1.创建RecognizerDialog对象,第二参数就是一个初始化的监听,我们用不上就设置为null
RecognizerDialog mDialog = new RecognizerDialog(this,null);
//2.设置accent、language等参数
mDialog.setParameter(SpeechConstant.LANGUAGE, "zh_cn");//设置为中文模式
mDialog.setParameter(SpeechConstant.ACCENT, "mandarin");//设置为普通话模式
//若要将UI控件用于语义理解,必须添加以下参数设置,设置之后onResult回调返回将是语义理解
//mDialog.setParameter("asr_sch", "1");
//mDialog.setParameter("nlp_version", "2.0");
//3.设置回调接口,语音识别后,得到数据,做响应的处理.
mDialog.setListener(new RecognizerDialogListener() {
//识别成功执行 参数1 recognizerResult:识别出的结果,Json格式(用户可参见附录12.1)
// 参数2 b:等于true时会话结束。方法才不会继续回调
//一般情况下会通过onResults接口多次返回结果,完整的识别内容是多次结果的累加,(关于解析Json的代码可参见MscDemo中JsonParser类)
public void onResult(RecognizerResult recognizerResult, boolean b) {
//拿到讯飞识别的结果
String resultString = recognizerResult.getResultString();
System.out.println("讯飞识别的结果 "+resultString);
System.out.println("b参数是什么 "+b);
@Override//识别失败执行 speechError:错误码
public void onError(SpeechError speechError) {
//4.显示dialog,接收语音输入
mDialog.show();
八、创建Bean类,以用来存放讯飞语音识别的结果json数据。
public class XFBean {
public ArrayL
public class WS{
public ArrayL
public class CW{
九、创建解析讯飞识别结果bean数据的方法,使用谷歌的Gson。
private String parseData(String resultString) {
//创建gson对象,记得要关联一下gson.jar包方可以使用.
Gson gson = new Gson();
//参数 1.String类型的json数据 参数 2.存放json数据对应的bean类
XFBean xfBean = gson.fromJson(resultString, XFBean.class);
//创建一个集合,用来存放bean类里的对象.
ArrayList ws = xfBean.
//创建一个容器,用来存放从每个集合里拿到的数据,使用StringBuilder效率更高
StringBuilder stringBuilder = new StringBuilder();
//使用高级for循环,取出特定属性的特有数据,装入StringBuilder中
for ( XFBean.WS w: ws) {
String text = w.cw.get(0).w;
stringBuilder.append(text);
//把容器内的数据转为字符串返回出去.
return stringBuilder.toString();
十、执行识别语音为文字的的逻辑代码(之前的拿到的数据是无法直接使用的bean数据,现在就是解析出来的最终String类型数据)。
//1.创建RecognizerDialog对象,第二参数就是一个初始化的监听,我们用不上就设置为null
RecognizerDialog mDialog = new RecognizerDialog(this,null);
//2.设置accent、language等参数
mDialog.setParameter(SpeechConstant.LANGUAGE, "zh_cn");//设置为中文模式
mDialog.setParameter(SpeechConstant.ACCENT, "mandarin");//设置为普通话模式
//若要将UI控件用于语义理解,必须添加以下参数设置,设置之后onResult回调返回将是语义理解
//mDialog.setParameter("asr_sch", "1");
//mDialog.setParameter("nlp_version", "2.0");
//创建一个装每次解析数据的容器(你说话有停顿,解析就是一段一段的,而用容器就能拼接成一句话了)
mStringBuilder = new StringBuilder();
//3.设置回调接口,语音识别后,得到数据,做响应的处理.
mDialog.setListener(new RecognizerDialogListener() {
//识别成功执行 参数1 recognizerResult:识别出的结果,Json格式(用户可参见附录12.1)
// 参数2 b:等于true时会话结束。方法才不会继续回调
//一般情况下会通过onResults接口多次返回结果,完整的识别内容是多次结果的累加,(关于解析Json的代码可参见MscDemo中JsonParser类)
public void onResult(RecognizerResult recognizerResult, boolean b) {
//拿到讯飞识别的结果
String resultString = recognizerResult.getResultString();
System.out.println("讯飞识别的结果 "+resultString);
//自定义解析bean数据的一个方法.用到了Gson,在项目里关联一下.
String text = parseData(resultString);
//容器装解析出来的数据
mStringBuilder.append(text);
//对参数2进行判断,如果为true,代表这个方法不会再回调,就把容器里的数据转成字符串.拿来使用.
String result = mStringBuilder.toString();
System.out.println("话说完,最终的结果 : "+ result);
@Override//识别失败执行 speechError:错误码
public void onError(SpeechError speechError) {
//4.显示dialog,接收语音输入
mDialog.show();
十一、讯飞固定的把文字转文语音的逻辑代码,把String参数传进去,然后调用此方法即可
public void TextToVoice(String text){
//1.创建SpeechSynthesizer对象, 第一个参数上下文,第二个参数:本地合成时传InitListener
SpeechSynthesizer mTts= SpeechSynthesizer.createSynthesizer(this, null);
//2.合成参数设置,详见《科大讯飞MSC API手册(Android)》SpeechSynthesizer 类
mTts.setParameter(SpeechConstant.VOICE_NAME, "xiaoyan");//设置发音人
mTts.setParameter(SpeechConstant.SPEED, "50");//设置语速
mTts.setParameter(SpeechConstant.VOLUME, "80");//设置音量,范围0~100
mTts.setParameter(SpeechConstant.ENGINE_TYPE, SpeechConstant.TYPE_CLOUD); //设置云端,这些功能用到讯飞服务器,所以要有网络.
//设置合成音频保存位置(可自定义保存位置),保存在“./sdcard/iflytek.pcm”
//保存在SD卡需要在AndroidManifest.xml添加写SD卡权限
//如果不需要保存合成音频,注释该行代码
mTts.setParameter(SpeechConstant.TTS_AUDIO_PATH, "./sdcard/iflytek.pcm");
//3.开始合成,第一个参数就是转成声音的文字,可以自定义
第二个参数是合成监听器对象.我们不需要对声音有什么特殊处理,就传null
mTts.startSpeaking(text,null);
十二、使智能语音能根据用户说的话,回答相映的内容,这就需要拿到用户说话的结果,进行判断,回答对应的内容。
//回答对象,在没有匹配到用户说的话,默认输出语句
String answer="不好意思,没有听清楚";
//这里的result参数,就是我们通过讯飞听写里最终拿到用户说话的结果
if(result.contains("你好")){
answer="你好,我是智能语音助手";
}else if(result.contains("谁是世界上最帅的人")){
answer="哈哈,当然是您";
}else if (result.contains("中午吃什么")) {
String[] anwserList = new String[]{"火锅", "烧烤", "烤鱼", "麻辣烫"};
int random = (int) (Math.random() * anwserList.length);
anwser = anwserList[random];
//调用语音助手说话的方法,把回答对象传进去.
TextToVoice(answer);
提示:程序没有办法运行到模拟器上,因为模拟器没有麦克风的回调接口,只能运行在真机上。
讯飞官方提供的错误码及解决办法:
用讯飞语音进行语音识别的一些问题
总结一篇热乎的【科大讯飞】SDK集成 常见问题!
android讯飞语音开发常遇到的问题 各种错误编码说明
讯飞语音听写常见问题
讯飞语音SDK提示用户校验失败10407
关于讯飞语音合成报MscSpeechLog: onCompleted: 用户校验失败.(错误码:10407)错误
使用科大讯飞的语音听写,在初始化时需要注意的点!
关于讯飞语音听写使用过程中出现的问题
没有更多推荐了,讯飞语音接入流程
语音识别技术在近几年可以说是飞速的发展,很多app种也接入了语音识别的功能。一般都是接入的第三方品台来进行语音的识别,几户没有公司会为了实现一个语音的功能来开发一套自己的语音识别技术。在市面上的语音识别技术,讯飞的技术在行业内可以说是顶尖的。下面就来介绍一下接入讯飞语音的流程。
去讯飞开放平台注册账号并申请新的appId。
下载sdk,根据平台和需求来下来对应的sdk
下载地址:
拷贝jar包和对应手机架构的so库到工程中
这里只需要拷贝Msc.jar即可,一般手机的架构都是armeabi架构的,根据需要引入。
在工程 AndroidManifest.xml 文件中添加如下权限
android:name="android.permission.INTERNET"/&
android:name="android.permission.RECORD_AUDIO"/&
android:name="android.permission.ACCESS_NETWORK_STATE"/&
android:name="android.permission.ACCESS_WIFI_STATE"/&
android:name="android.permission.CHANGE_NETWORK_STATE"/&
android:name="android.permission.READ_PHONE_STATE"/&
android:name="android.permission.READ_CONTACTS"/&
android:name="android.permission. WRITE_EXTERNAL_STORAGE"/&
android:name="android.permission. READ_EXTERNAL_STORAGE"/&
android:name="android.permission. WRITE_SETTINGS"/&
android:name="android.permission.ACCESS_FINE_LOCATION"/&
android:name="android.permission.CAMERA" /&
这里的权限比较多,如果只是简单的语音识别为文字,不需要这么多的权限,根据需要进行添加
初始化讯飞语音
在程序的入口application中初始化语音,并修改appid
SpeechUtility.createUtility(context, SpeechConstant.APPID +"=")
讯飞demo中功能比较多,这里就简单的介绍语音识别这一功能
public class VoiceUtil {
private SpeechRecognizer mI
private String mEngineType = SpeechConstant.TYPE_CLOUD;
private RecognizerDialog mIatD
private static Context mC
int ret = 0;
private static VoiceUtil instance = null;
private VoiceUtil() {
public synchronized static VoiceUtil getInstance(Context context) {
mContext =
if (instance == null) {
instance = new VoiceUtil();
public void startVoice() {
initVoice();
if (true) {
mIatDialog.setListener(mRecognizerDialogListener);
mIatDialog.show();
AppUtil.showToastMsg(mContext, "请开始说话…");
ret = mIat.startListening(mRecognizerListener);
if (ret != ErrorCode.SUCCESS) {
AppUtil.showToastMsg(mContext, "听写失败,错误码:" + ret);
AppUtil.showToastMsg(mContext, "请开始说话…");
private void initVoice() {
mIat = SpeechRecognizer.createRecognizer(mContext, mInitListener);
mIatDialog = new RecognizerDialog(mContext, mInitListener);
setParam();
if (true) {
mIatDialog.setListener(mRecognizerDialogListener);
mIatDialog.show();
AppUtil.showToastMsg(mContext, "请开始说话…");
ret = mIat.startListening(mRecognizerListener);
if (ret != ErrorCode.SUCCESS) {
AppUtil.showToastMsg(mContext, "听写失败,错误码:" + ret);
AppUtil.showToastMsg(mContext, "请开始说话…");
* 参数设置
public void setParam() {
mIat.setParameter(SpeechConstant.PARAMS, null);
mIat.setParameter(SpeechConstant.ENGINE_TYPE, mEngineType);
mIat.setParameter(SpeechConstant.RESULT_TYPE, "json");
mIat.setParameter(SpeechConstant.LANGUAGE, "zh_cn");
mIat.setParameter(SpeechConstant.ACCENT, "mandarin");
mIat.setParameter(SpeechConstant.VAD_BOS, "4000");
mIat.setParameter(SpeechConstant.VAD_EOS, "1000");
mIat.setParameter(SpeechConstant.ASR_PTT, "1");
mIat.setParameter(SpeechConstant.AUDIO_FORMAT, "wav");
mIat.setParameter(SpeechConstant.ASR_AUDIO_PATH, Environment.getExternalStorageDirectory() + "/msc/iat.wav");
* 初始化监听器。
private InitListener mInitListener = new InitListener() {
public void onInit(int code) {
LogUtil.logByD("SpeechRecognizer init() code = " + code);
if (code != ErrorCode.SUCCESS) {
* 听写监听器。
private RecognizerListener mRecognizerListener = new RecognizerListener() {
public void onBeginOfSpeech() {
public void onError(SpeechError error) {
public void onEndOfSpeech() {
public void onResult(RecognizerResult results, boolean isLast) {
LogUtil.logByD(results.getResultString());
printResult(results);
if (isLast) {
public void onVolumeChanged(int volume, byte[] data) {
LogUtil.logByD("返回音频数据:" + data.length);
public void onEvent(int eventType, int arg1, int arg2, Bundle obj) {
* 听写UI监听器
private RecognizerDialogListener mRecognizerDialogListener = new RecognizerDialogListener() {
public void onResult(RecognizerResult results, boolean isLast) {
printResult(results);
* 识别回调错误.
public void onError(SpeechError error) {
private HashMap&String, String& mIatResults = new LinkedHashMap&String, String&();
private void printResult(RecognizerResult results) {
String text = JsonParser.parseIatResult(results.getResultString());
String sn = null;
JSONObject resultJson = new JSONObject(results.getResultString());
sn = resultJson.optString("sn");
} catch (JSONException e) {
e.printStackTrace();
mIatResults.put(sn, text);
StringBuffer resultBuffer = new StringBuffer();
for (String key : mIatResults.keySet()) {
resultBuffer.append(mIatResults.get(key));
LogUtil.logByE(resultBuffer.toString());
以上是封装后的工具类,使用的时候直接调用即可,这里没有封装回调,只是为了演示功能,如果需要请自行封装。
对于6.0以上的系统需要动态的申请权限,这里就不在多做介绍
以上就是接入科大讯飞的流程及代码的调用,谢谢查阅
(二)unity接入安卓讯飞语音输入SDK(图文教程 流量党误入)
没有更多推荐了,讯飞输入法蹿红背后:语音输入应用场景局限_凤凰科技
讯飞输入法蹿红背后:语音输入应用场景局限
用微信扫描二维码分享至好友和朋友圈
目前除了锤子手机使用到讯飞的语音技术,华为、小米、魅族、VIVO、OPPO等手机的内置输入法也在使用讯飞开放平台提供的语音技术。
讯飞输入法蹿红背后:语音输入应用场景局限本报记者藏瑾深圳报道当徐嘉威在锤子手机发布会的现场看到老罗的语音输入演示后,马上下载了讯飞输入法。&(语音)识别准确率很高,现在已经成为忠实用户了。&徐嘉威告诉21世纪经济报道记者。锤子科技CEO罗永浩的手机发布会意外捧红了科大讯飞的输入法&&除了现场热烈的掌声,一夜之间,社交媒体上众多溢美之词以及惊叹声随之而来;其在AppStore迅速蹿升到工具榜第三位,并成为排名最高的第三方输入法;百度搜索指数显示,近期关键词&讯飞输入法&搜索量大增,7天搜索指数环比增长139%。事实上,语音识别技术近年来发展迅速,新晋&网红&讯飞输入法早在2010年就已推向市场,目前主流的输入法也都支持语音输入,并有着与讯飞接近的正确率,语音输入并不是一项所谓的&黑科技&。&很惭愧第一次知道讯飞输入法,也第一次知道现在的语音输入已经发展到97%的准确率了&,作为一名产品经理,徐嘉威发出了&好的产品也许会埋没在人海中不为人知的&感慨。为什么&好产品会被埋没&?易观智库终端入口分析师朱大林向21世纪经济报道记者指出,目前百度、搜狗等各家的语音输入基本都达到了实用的水平,在用户中认知度较低主要受到固有的使用习惯、当前的用户体验以及应用场景局限的影响。&网红&输入法北京时间日凌晨, iPhone历史上最重磅产品之一的iPhone4发布。当晚,科大讯飞几位年轻人就iPhone4做了一个讨论,认为iPhone上基于触屏的全键盘输入由于屏幕太小体验不太好。头脑风暴后,他们决定把科大讯飞的语音技术结合到输入上来。号,科大讯飞对外发布其语音输入法的第一个版本,这也是最早支持语音输入的输入法。1999年成立的科大讯飞起源于中国科技大学&人机语音通信实验室&,由27岁的刘庆峰和17个师弟师妹共同建立。作为国内语音技术提供商,从中文语音合成技术开始,到多语音合成技术,再到语音识别、语音理解和智能问答等,科大讯飞已是国内最主要的语音技术提供商。中国语音产业联盟数据显示,2015年科大讯飞在国内市场占到44%份额,随后是百度的28%和苹果的7%。记者了解到,目前除了锤子手机使用到讯飞的语音技术,华为、小米、魅族、VIVO、OPPO等手机的内置输入法也在使用讯飞开放平台提供的语音技术。此外,值得注意的还有科大讯飞的听见&智能会议系统。21世纪经济报道记者在英特尔IDF峰会、第四届中国电子信息博览会等多个场合见到该系统将嘉宾演讲语音实时转成文字&上墙&。据了解,当前该系统主要应用于大型发布会、课程培训、电视节目直播等对语音转文字时效性和准确率要求较高的场景。除提供toB服务,该系统面向个人提供收费转写服务,价格约为99元5小时。随着移动互联网的发展,2011年科大讯飞成立了移动互联事业部,依托智能语音交互平台&讯飞语音云&,科大讯飞与家电、机器人、手机等诸多领域厂商合作,推动语音应用与硬件的结合。根据公司2016年半年报,截至日,讯飞开放平台的总用户数已达8.1亿,月活跃用户达2.36亿(同比增长157%),开发者达16万(同比增长228%);讯飞输入法用户达3.6亿,活跃用户超过1亿,输入法语音用户日覆盖率达到12%(同比增长50%)。Research and Markets 发布的《全球及中国语音产业报告()》显示,全球最大的语音识别技术公司Nuance仍占据三成市场份额,但已出现下滑趋势。谷歌、微软、苹果和科大讯飞则获得了迅速的增长,全球市场份额分别为20.7%、13.4%、12.9%和6.7%。应用场景局限语音智能作为人工智能领域最成熟的技术之一,产业化正在不断加速。被称为&互联网女皇&的玛丽&米克在《2016年互联网趋势》中指出,人机交互的方式正在被语音输入和汽车改变。她认为,由于快速、易操作、个人化以及无需用手,计算界面正在从键盘进化为&麦克风+键盘&,语音接口会成为下一个快速增长的市场。然而,伴随着技术的发展和成熟,用户教育是一个漫长的过程。但由于语音输入主流应用场景和杀手级应用的缺乏,目前还很难培养用户使用习惯,这也导致了用户对相关产品了解很少。根据赛诺的《2016年Q3语音输入法行业分析报告》,在语音输入法的使用场景分布中,即时通讯是语音输入使用最多的应用,占比高达94%;具体场景中,&聊天对象太多、来不及打字&占比65%,&输入内容多&占比35%;&手不方便&占比19%。朱大林指出,作为一种新的交互方式,语音输入需要在允许进行语音输入的环境中进行,其次方言、地名的识别度准确率的问题给用户留下阴影,影响了用户的体验。科大讯飞方面向21世纪经济报道记者解释,语音输入时,在极短的时间内,输入法的语音识别系统经历了一个极为复杂的分析过程,很多环节容易导致语音识别出现问题。比如对发音人&口音差异&的适配,需要海量数据进行适应训练,使语音识别系统习惯不同人的发音;其实是环境噪声干扰,在语音输入过程中,机器很难分辨出人声和环境噪声,容易把所有的声音都进行识别;再者是网络因素。在线语音识别需要通过网络在服务端与客户端传输数据,网络质量差或传输不稳定易导致语音识别慢、效果差。这些都成为了阻碍语音识别普及的因素。而讯飞方面也指出这是讯飞的语音输入相对国内其他厂商更为深入的地方。朱大林认为,目前来看,有三类场景可以拓展,首先是商务办公领域,除了发微信、短信,还可以用于邮件书写;其次是出行领域,比如车载控制和对话;再者服务体系中,重复服务或大或小可被简化或替代。讯飞输入法产品总监翟吉博指出,在市场教育和用户习惯培养方面,可以从大家比较熟悉的,比如用微信发语音的场景,让大众明白通过语音输入文字和直接发语音的区别;另外,在产品和技术本身,在个性化方面有很大的发展空间,未来的语音输入可以为每个人量身打造,通过个人账号实现通讯录人名和定制词库的个性化识别。另外,他还表示,基于手机这种触屏为主的设备,语音不会是完全主流的,在下一个万物互联和VR设备流行的时代,语音技术的春天会真正到来。
[责任编辑:王圣威 PT010]
责任编辑:王圣威 PT010
用微信扫描二维码分享至好友和朋友圈
凤凰科技官方微信
播放数:1735
播放数:5979
播放数:1160
播放数:164331为什么讯飞语音输入法是我的最爱
认可讯飞输入法是在手机端开始的,每天要在有道云笔记写日记,讯飞输入法的连重叠写功能让我有书写的快感,输入的速度也大大提高。在屏幕的同一个位置不断的快速写不同的文字,常常令身边的朋友也叹为观止,他们在我的影响下也纷纷设定讯飞输入法为默认的输入法。
xunfei1.jpg
发现其语音输入是稍后的事情,当时没有去大量应用,也许是自己的普通话不够准,识别率还不如连写高,所以,相当长一段时间里仍然以手写为主。两天前,一个画家朋友的书稿,数十页,请我录入电脑。面对数万字的手写稿,我想到了讯飞的语音输入功能,先是用手机端,后来,就用PC端,开始是几句话几句话,对着输入端小心地说,边输入边修改。到后来是放开嘴巴,一段又一段地说。只要你不停下来,她就一直卖力地将我的语音转换成文字,只需适当的做一些修改,而准确率也不断的增高,使工作效率提高到数倍,令我非常欣喜。从此习惯了有讯飞语音输入法的日子,写日记写东西也改为面对电脑手机口述了,那种面对面的倾诉的感觉,有时也让思绪放飞,十分快捷方便高效、令人鼓舞。语音输入是相当赞的一个功能。
xunfei而.jpg
健康管理 | 三种防治鼠标手的小技巧
,这篇文章,更加强了我对讯飞语音输入法使用价值的认可,是她对当下众多网民的手腕健康的重要性。我自己的手腕处和大拇指常有痛感,很可能患上腕束综合症**,今后,除了加强手部的锻炼,另外,就是尽量使用讯飞语音输入,I
love 讯飞语音输入法。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 讯飞语音输入发送微信 的文章

 

随机推荐