当前位置 : 首页 > 快讯 >详情

和他们聊了聊 我才知道华为为什么要“吃力不讨好”

快讯 来源 :快科技 2023-08-10 06:58:19

31岁的梁智敏,是一位程序员。


(资料图片)

自学了UI和前端开发,是一名Vue的熟手,更是一家互联网公司的合伙人。

在这些看起来挺平常的平常标签之外,他还是一名听障人士。

从五岁开始,他的耳朵渐渐开始听不见了。

而且因为植入人工耳蜗和助听器的时间比较晚,目前听力依旧几乎为0。

据他说,人工耳蜗在非常安静的环境下,可以正常工作。

但是只要环境音复杂了,耳朵里听到的就全都是嗡嗡的电子音,没有办法分辨有效对话。

所以这么些年,他都是用手机上的字幕软件来获取信息的。

一开始,他发现这个功能还是在塞班年代。

那个时候,诺基亚的系统上其实并没有这样的功能,但是搜狗输入法里已经有了“语音输入”功能。

他利用这个每次只能听一句话的功能,撑了好几年。

后面随着换了智能机,性能越来越强了,专门的AI字幕无障碍服务开始出现,他日常与别人的交流才开始热络起来。

现在的他,因为担心遗漏错过别人找他的消息,会在工作的桌面上额外放一台手机,通过识别出来的字幕来及时和他人交流。

智敏也很高兴地跟我科普了很久这些年AI字幕App的发展:他说,一开始其实也还是听障用户之间的自救。

当时有一个会技术的听障朋友,开发了一款名叫音书的App。

但是因为里面的声音引擎用了讯飞的付费API,所以需要定期充钱才能用。

后来讯飞亲自下场,并且推出了听障免费认证,他们听障用户就不用再为实时字幕交钱了。

但是因为讯飞是第三方App,拿不到系统底层的权限,所以这时候的字幕App只能显示外界麦克风收到的声音。

手机里面,像是视频、收音机以及打电话时候的声音都是没有的。

这一块拼图,直到手机厂商自己开始做内建服务,才算最后凑齐。

我了解到智敏的这些故事,起源于华为开发者大会上一个几乎从来没有被报道过的活动。

HDC湖畔对谈。

简单来说,就是华为邀请了真正的视障、听障、肢体残障和老年朋友们,与华为终端BG的首席运营官何刚以及无障碍相关业务的负责人们,来到松山湖三丫坡的草坪围坐交流。

聊一聊他们现阶段在使用手机等数码产品的时候,还有哪些问题。

以及通过华为的努力,能帮助他们再做些什么。

这次的活动持续了一整天,我现在已经参加完回来了,简单说下我的想法吧:

我觉得华为是真的不行。

他们去年就应该喊我来这个活动好吧!

有些东西确实是不交流不知道。

过去我们提到无障碍,第一时间想到的就是视障、听障这些,然后系统里做点儿对应的辅助增强的工具就行了对吧?

但这样其实是远远不够覆盖“无障碍”这个概念的,不和真正用户交流,就没法真正解决他们的痛点。

我跟华为小伙伴聊的时候,他们就分享了不少他们从用户反馈中,做出的优化。

比如——如何保护视障用户的隐私?

以往手机开启视障读屏模式之后,屏幕亮度是不变的。

HarmonyOS 4 当中这次就对这个功能做了调整,读屏的时候,屏幕亮度会降至极低——既保护隐私,又省电。

在此之前,手机无障碍模式播报数字密码的时候,也已经能很聪明的把输入的密码播报成“点”了。

又比如说,听障用户们怎么接打电话?肯定会有小伙伴说了,AI电话.

没错,这个功能华为、小米、谷歌都有。

但是华为无障碍团队在交流的过程中,收到了听障用户的反馈说,AI通话的音色和现在那种电话推销机器人的很像。

导致有时候他们拨出去电话还没说完一句,对方就给挂了。

因为有了这个反馈,华为才在这次HarmonyOS 4的小艺通话里额外加入了几个新的更自然的音色选项。

听障朋友们以后给别人拨出电话被误挂的概率应该会低很多。

甚至这个功能还被琢磨出了点其他奇妙用法。

听华为小伙伴说,他有独居的女同事也开启了这个功能,然后就可以用男声的音色去接外卖和快递的电话了。

除了听障方面的钻研以外,视障这边也是如此。

去年我们测试过的无障碍视觉识别,一开始其实也不是冲着智能问答来的。

而是为了能帮用户更好的拍照。

他们也有朋友,也需要分享快乐,照片当然是最直观的方式了呀。

但是他们自己看不清,这时候如果相机能告诉他们,怎么把相机给挪到合适的位置就好了。

结果做着做着整到一半,华为突然发现,这个功能,诶?好像还可以做点儿别的:

比如帮视障用户确认衣柜里衣服的颜色,避免穿错了。

又或者能在一个陌生的空间里找到门的大概位置,在志愿者没到位的情况下应应急。

所以才有的后面的更丰富的播报功能,以及一来一回的智能问答。

大家不要觉得这个需求很不现实。

一开始很多小伙伴评论道:“视障人士怎么能举起手机对准目标呢?”

在评论区里说华为这个功能堪比太阳能手电筒、虚空索敌。

直到一些真的视障朋友也刷到了视频,在评论区现身说法之后大家才知道。

其实大部分视障朋友其实也还是有色块和空间感知的能力在的。

他们能看到,只是看不清。

而这次交流之后我更是知道了,这个功能甚至就是视障朋友们给华为提出来的,而不是反过来。

很多时候,企业责任就是在这些小细节上体现的。

让用户反向提出需求,一定才是无障碍功能使用体验提升的最佳路径。

不过交流之后我发现,华为的小伙伴他们自己内部对现在的成果还是不太满意的。

尽管一年过去了,现在还是只有苹果、华为有这项技术。

但华为的小伙伴还是觉得可以继续打磨一下问答的部分,支持上更自然和复杂的提问,那就就又能帮助到比现在更多的人了。

假如真能做成了,到时候他们就真的没竞品了。

确实……是一家自己卷自己的企业哈。

回到智敏身上,在和他交流的时候,我听到他说他从P8开始一路用到了现在的Mate 40。

就挺好奇的问了他一下,作为一个听障人士,为什么一直选的华为?

结果没想到理由非常之朴素:

因为华为信号好。

草率了,曾经我一直以为手机上的AI字幕是离线运行的。

但其实现在除了小部分旗舰机有NPU运算的方案,绝大多数手机的AI字幕还是只能靠联网识别。

那这个时候识别的效果稳不稳,完全就是看信号稳不稳了。

智敏说他之前用其他手机的时候,有时候明明还有那么一两格信号,但是字幕就卡住了,只能干着急。

但是换了华为之后,他在电梯和地库里面,几乎没有遇到过问题。就导致他对华为的好感特别高。

而且还有一点很小的细节,智敏说华为甚至把这个系统级AI字幕给移植到了电脑上,华为笔记本里面的AI字幕也自带这个功能,这是他之前用其他电脑的时候没有遇到过的。

他平常在网上看的开发教程和资料,很多是不自带字幕的,华为电脑里面这个很小的细节就能帮到他很多。

我和智敏那天下午零零总总聊了差不多一个半小时,他说他对目前的技术已经很满意了——华为信号稳、现在流量价格也不贵了。

尤其这次HarmonyOS 4里面要全面实现纯离线的识别,那以后更是一点儿流量都不需要了。

接下来假如听障相关的辅助功能还想有提升,他觉得应该是续航和情绪识别两个方面。

第一个好理解,开着字幕识别肯定费电嘛,他说他用手机,得一天三充,包里最极限的时候,放过3台手机、8个充电宝。

这次因为活动的天数比较短,他只带了两个手机、一个充电宝,就没太好意思给我“展示军火”。

这个我觉得随着芯片制造水平的发展,以后手机的续航时间肯定越来越长。

第二个,我一开始没太明白,后来他跟我说,其实他几年前谈过一个女朋友,一开始两个人感情很好,但是后面渐渐有点儿坚持不下去了。

因为女生不想让智敏一辈子靠着冰冷的AI字幕跟她谈恋爱。有了这次的经历之后他就在想,要是AI字幕也能够呈现语气就好了。

假如放在以前,我可能会觉得这第二个设想略微有些遥远。

但是随着今年爆发的AI大模型、HarmonyOS 4里集成上的盘古版小艺。

诶,好像也不是那么远的了感觉?

说不定到时候先让功能落地的,还是华为。

今年的HDC上,华为提了一个概念。

科技世界不是冰冷的0和1,而更应该是贴近人类体温的37℃。

但其实在说出这个slogan这之前,华为已经投身无障碍技术六年的时间了。

从一开始反向适配那些不规范无障碍开发流程的App,到联合无障碍硬件的厂商,支持助听器设备接入到鸿蒙生态当中,以及这两年利用AI赋能,对视障、听障相关的无障碍体验做更全面的优化提升。

哦对了,还有线下讲座的开设——适老化设计也是华为无障碍团队的一项日常工作。

听华为的小伙伴说,他们光是今年上半年,就通过线下体验店进入老龄化社区,开设了3000多场使用手机常用功能的系列课程。

即使是在华为内部最难的一段时间里,这项业务以及上面具体技术的探索与开发,都没有因外部挑战而停止过。

这其实才是真正的无障碍,这其中的概念,不是和身体功能绑定的,而是精神层面的关怀——让每一个人都不在数字世界的体验当中掉队。

这一点,我觉得才是一家企业践行责任的体现。

标签:

精彩放送

返回顶部