首先是一个问题,我作为一个学习者,怎么样的一个评价对我来说是一个好的评价?
我想到了我大学期间考驾照学车的时候。 我是一个不怕问也希望问的人,喜欢把事情搞清楚,只有这样我心里才比较放心,否则悬在空中会让我很难受。
之前很长一段时间中,我接触过AI相关的一些内容。其实评价这个事情很像一个AI训练那样,我做一件事情,我想要有谁能来告诉我,我这样做对不对,我这样想的对不对。但区别或者说更重要的是,我想知道,是不是还有更好的方法或者诀窍,嗯,对的,诀窍。
AI 训练只需要告诉它对错,模型自己会想办法去使它做对。而我想要的,是有人能带我看见更优的路径、被忽略的细节、更轻巧的思路 —— 不是简单判定结果,而是帮我打开更多可能。
因为模型有很多“时间”或者“机会”去随机/迭代着尝试训练到更好的结果,而我没有这样子的能力。也许是我们人类这个“模型”更加的复杂和深层,我们的训练隐于深处,甚至是潜意识中。
跟学习滑雪一样,一旦我掌握了脚和重心的位置姿势,那么至少我肯定能有控制地滑起来了,而不是失控地冲下去,这两种“滑雪”肯定是截然不同,哈哈。
在 「语迹 Atobe repeater」 中,我加入了一个评价(者)的设定,这现在仍然还是一个实验性的功能,但我相信它会是一个有用的设计,我也一定会将它做得更好一些。
过去,我见过太多的AI功能,它们好用也有用。但是它们还是不一样的。我们要去学习的内容将来或者现在就是要和“人”去交流用的,那为什么不直接让“人”来评价呢,AI说的好和差,就真的一定是好和差吗。
现在有的内容是,学习者将学习模仿的对象音频 和 自己录制的模仿音频(目前是音频,未来会支持更多形式),包括一些描述信息(音频时长、学习语言、技能名称、可能会有学习者主用的语言),以任务的方式打包发出。评价者在任务大厅里,可以领取到熟练或者母语级别的语言相关的任务,要注意哦,任务会有时间限制,时间结束后,未评价的任务会回到任务大厅去。所以评价者可以果断和大胆一些,你的评价,对学习者肯定是一个很好的帮助。(当然肯定做不到完美,因为有时间限制,没有办法不是嘛 :p)
我觉得和收到评价一样重要的是,把自己模仿的结果发出去。一旦把评价任务发出去了,成功了一半,有时候甚至自己去认真比较,也都能想到哪里可以做得更好一些。而如果有熟练或者母语等级的评价者,来听一听,也来模仿模仿,指出一些问题,或者如果足够好了给些鼓励也是很棒的。甚至有时候,对评价者来说也是一次学习。
我觉得,我们是生活在一个「低精度星球概念」 [1],很多事情没有那么精确和严谨,不完美,却依然温柔运行,不是吗~ 够用就好,对学习者和评价者来说,都是。
对于评价者可以评价的范围,我还有一些思考,就是比如同样语言的学习者之间的互助,应该也会有些帮助,但是形式上肯定还有一些区别,还需要再设计。
当然,我在计划里说明,也会增加AI功能,作为一个高级功能去支持,因为我希望它不是一个非常必须的功能,但是能为需要的人提供一些帮助。
最后,我有一个问题,这样一个对其他人「说得对不对」的「评价」的任务,应该是用直接的「Evaluation Task」 好一些呢,还是用更综合一点的「Review Task」 好一些? 希望英语母语的大家可以给我一点建议,或者说更喜欢哪个?当然众口难调,最后的决定我来做,我会好好当个坏人的,哈哈。
参考: