我正在使用 Mac OS X 中的可说出的项目功能,通过语音激活一些简单的东西,比如“播放音乐”等。
由于我在实验室,将我的 MacBook 放在桌子的一角,出于人体工程学原因将其连接到显示器和其他 I/O 设备,因此我不得不大声喊叫才能让声音传到内置麦克风。我的实验室同事不高兴,这是可以理解的。
为了解决这个问题,我换成了夹在衣领上的蓝牙麦克风。我不再需要大喊大叫才能使用 MacBook 的内置麦克风。然而,这也意味着我必须重新训练语音识别引擎,因为它现在获得的音频信号非常不同。
问题在于:当我calibrate
在Speech
prefpane 中打开窗口时,它会执行某种无监督学习。我甚至无法告诉它我在说什么。这意味着我必须猜测它认为每个命令听起来像什么,然后反复说这个命令,每次都改变我的声音;直到我的声音听起来像我平常的声音(口音、音量、音调等)。这真是太令人沮丧了。
有没有更好的方法来训练语音识别引擎?我似乎无法足够快地训练它(实际上已经训练了一整天),而且由于这个失败,我有大量自定义语音命令无法使用。
技术规格:
- Mac OS X 10.7.5(狮子)
- 一个好的蓝牙麦克风(索尼)