AI产品方法论之“由用户来完成AI产品设计的最后一公里”
编辑导语:随着科技的不断进步,AI技术也在不断地发展中,当然AI产品设计也面临着很大的挑战,很多AI产品陷入瓶颈,本篇文章作者针对这一问题提出了一些解决方法和思路,一起来学习一下。
https://p3-sign.toutiaoimg.com/tos-cn-i-tjoges91tu/SzlD7mcEdKyz8V~tplv-tt-large.image?x-expires=1970278272&x-signature=TT%2B9POLtgxWp5oV0E7F8A7%2BFZpg%3D
AI产品落地,非常有意思,也非常有难度。
究其原因,除了AI技术、产品、行业、人才、用户等各方面都还没成熟。
还有一个很重要的问题,就是我们还没有将互联网时代的产品方法论升级成为“AI产品方法论”。
很多AI产品会陷入一个瓶颈:不论怎么设计/迭代,都不能让足够多的用户真正满意。
如果过于细分目标人群,感觉整体市场空间不够大。
如果想做到“千人千面”,短期内又看不到技术和产品层面的可行性。
如何解决这个问题呢?不能仅靠AI技术来fix,需要首先有些不一样的AI产品认知。
我个人观点是:AI产品设计=AI+人工+用户
https://p3-sign.toutiaoimg.com/tos-cn-i-tjoges91tu/SzlD7nQH2omRih~tplv-tt-large.image?x-expires=1970278272&x-signature=QRDxDRokYZjcOQdBU%2BC2kHetl1g%3D
首先,目前AI技术有局限性,短期内,AI技术本身的效果可能只有70分;然后,由“人工”来把某个具体的feature做到足够可用(加20分),让这个点成为用户决策的理由;最后,用户拿到产品后,还需要完成“个性化”的设置过程(主动+被动),补齐最后的5~10分。
对于第2点,虽然业内说“有多少人工,就有多少智能”是一句戏谑的话,但我把它update成一句能指导实际工作落地的rule——对于某个具体的AI产品feature,可能需要有30%+的人工,才有足够让用户满意的产品价值和门槛积累。
比如公开文章曾报道,某智能音箱的“中英文混合TTS”功能。
为了让朗读效果自然,比如AI语音朗读“XXX中文歌星的XXX英文歌曲”,专门花了1个月时间,找了2个音色效果极为近似的真人,一个能说中文,一个能说英文。
然后请他们来录制音频,最终花了几个月时间才让这个小小的feature完成。
但到这个时候,其他厂家的效果就完全跟不上它了。
即,如果不想做脏活累活就获得竞争优势,很可能是不现实的(方法可以取巧,但心态不能求安逸)。
第2点,之前谈过很多,今天重点聊聊第3点,我将其描述为:由用户来完成AI产品设计的最后一公里。
一、释义
用户拿到产品后,还需要完成“个性化”的设置过程(主动+被动)。
什么意思?假设我们未来购买了一个超级AI个人助理,总不能把我(主人)的名字、性别等基本信息弄错吧?
所以类似电影《her》的男主角那样,用户拿到AI系统后,需要有个初始化过程:
对于主人的重点profile字段信息,通过语音交互来获取,比如姓名、性别、年龄等。对于低频、长尾字段,等未来需要的时候再问。另外,AI系统还可以通过环境感知,比如GPS定位,CV等功能,先设置一些默认值,等未来用户提出“这个不对”时,再纠正update。
用下面这个“类比”模型来理解,可能会很不一样——买宠物。
1)当我们买宠物的时候,首先会在大脑里有大致的需求认知和偏好。
自然的选择一个大的品类,比如狗、猫等(这背后,人本身,以及自然界,整体可以看作一个大的AI)。
2)进一步的,我们需要选择“子品类”(边牧?柯基?拉布拉多?),需要选择“具体个体”。
这时,多数人需要有一个“更懂”的朋友或店员来帮助参谋、挑选。但是,我们的产品体验过程,其实并没有结束。
3)当把宠物带回家后,我们会给ta起个名字,并通过多次交互,让宠物逐步认识家中的各位成员——这些,都和AI的初始化是极为类似的。
后续,还会逐渐教会它去熟悉家中环境,知道哪里能去,哪里不能去等。
基于这个例子,大家可能更容易理解“由用户来完成AI产品设计的最后一公里”的抽象描述:在使用产品过程中,由用户来定义最终的使用场景、逐渐将产品中的一些不明确/清晰的feature/数据给明确掉,并逐渐调整自己的预期。
也就是说,如果能够把握好这个大方向,在产品体验层面,是能够规避很多现在AI技术局限性的。
但是,这个时候,具体如何设计每个产品体验细节,以及如何引导用户交互,就显得非常非常重要了——这个意义上来说,这些才是关键(虽然看起来不起眼,会被很多人忽视)。
这个思路,是否有类似的实际案例呢?有的。
二、4个To C方向的案例
1. 案例一,智能玩具“furby(菲比精灵)”
https://p3-sign.toutiaoimg.com/tos-cn-i-tjoges91tu/SzlD7o91NLkIDX~tplv-tt-large.image?x-expires=1970278272&x-signature=3wC1IjHJ5IUptZExR9mFlctPkKE%3D
这款玩具,是我体验过的最好玩的AI玩具之一了(可参考《菲比精灵furby3.0最新版》)。
除了常规核心功能,它还具备初级的“性格养成”体验——用户和furby互动时的行为,会影响它的性格模式。
比如,对它非常有礼貌,它会更多的出现“快乐的咕咕叫”、或是“显示出快乐的眼睛”等现象。
但如果是粗鲁地对待菲比,它也会变得更多的使用粗鲁的反应。
2. 案例二,AI穿衣搭配助手“Stitch Fix”
https://p3-sign.toutiaoimg.com/tos-cn-i-tjoges91tu/SzlD7or8QRjzsM~tplv-tt-large.image?x-expires=1970278272&x-signature=bEwgtRSOpa2e9fTRRoghbG8y4gI%3D
其产品体验流程是:
用户填好问卷,预交20美元的设计费。Stitch Fix 的 AI 系统会根据你的“时尚画像”信息,自动计算出你可能会喜欢的服装组合。由 Stitch Fix 的专业服装搭配师,从中人工挑选出一套穿搭,包括 5 件衣服和配饰(他们称之为“一个 Fix”),并附上一份服装搭配指南,免费邮寄给你。用户试穿之后,留下自己喜欢的衣服和配饰,其余的在 3 天内免费邮寄回去,并填写反馈表格,为留下的商品支付货款。
3. 案例三:喜剧演员运用“AI创意生成器”
在文章《李诞又双叒要“失业”?下一个“脱口秀大王”可能会是AI | 甲子光年》中提到:
AI在喜剧和艺术中更好的作用是作为一个“无限创意生成器”,它摆脱了人类思维的盲点和偏见,可以抛出无穷无尽的主题和潜在的联想,供人类作家和表演者参考(选择)。米罗夫斯基是一个国际AI即兴剧团的联合创始人,在这个剧团里,人和AI一起工作,AI能在表演中不停抛出演出者需要的提示和可能用到的台词。“我觉得喜剧AI的创建思路不是让它来完全理解人类的情绪、或者完全理解所有情境下的各种语义”,他说,“更合适的方法是让AI来辅助人类喜剧演员的演出”。
4. 案例四:借力AI,用户创作“自己写的”歌
在小冰岛app里,基于AI生成的歌曲,用户修改歌词,然后再由AI自动TTS唱出来。
https://p3-sign.toutiaoimg.com/tos-cn-i-tjoges91tu/SzlD7pPHTxBUen~tplv-tt-large.image?x-expires=1970278272&x-signature=Wc%2FMkTDrr5DROhV4jakgP9xASlc%3D
让我惊到的点在于,我突然意识到,当我(用户)在尝试自己写歌词时,必须得自己营造(酝酿/创造)出一个氛围——一个自己的故事、心情和想表达的东西。
在之前的互联网产品里,我从来没有过这样的体验!
之前我们写文章或拍视频,往往是自己先已经构思好了一个内容或想表达的主题。
然后用工具去实现,但是,在小冰岛的这个体验细节里,用户很可能被激发出他自己之前并未设想好的想法或情感。
未来,元宇宙就是让人类发挥创意的地方。
如何发挥呢?在这个例子里,非常典型:
用户被“trigger”出创意。通过AI辅助,用户能实现自己原本不具备的能力(比如这个例子中的“唱歌好听”,以及生活中的某些医疗器械能增强人的肢体能力)。最后,人从AI生成的结果中,挑选或创造一个最能表达他自己想法和感觉的,作为他自己的作品。
以上都是To C方向的案例,To B的,有吗?
三、1个To B方向的案例
在文章《RPA爆火这两年:AI乎?非AI乎?| 甲子光年》中提到某电网公司已经构建了自己的RPA流程设计师团队。
他们每个季度给来也科技发订单,获取来也RPA软件的license,而后自行基于内部场景挖掘流程,根据实际情况调整、实施、扩容。
来也科技联席CEO兼总裁李玮:“RPA真正的魅力就是一定要让客户内部学会使用产品,而不是原厂持续交付”。
四、相关的3个伦理或AI认知问题
如果这种“AI辅助+人工抉择”被从业者和用户广泛认知并接受,那么以下几个问题,至少都会部分的被fix。
1. 权责利划分
AI负责提出1个或多个建议(备选项),用户自己做抉择(是否采用、采用那个)。
那么,很清晰的,最终这个成果,所有权归用户(因为是用户赋予了其实际意义,否则会被丢弃掉)。
相应的利益和责任,也都由用户自己承担。
2. AI是否需要完全实现感性能力/价值观体系
部分需要,但并非100%需要(也实现不了)。
因为每个人的感性/情感/价值观是不同的,最终适合某个用户(或他所需要)的东西,是不一样、甚至不可控的。
即然如此,就让用户自己抉择好了。
3. AI必须实现“可解释性”
部分需要,但并非100%需要(也实现不了)。
类比来说,我们对“大脑的可解释性”了解还远远不够,也没有不让用大脑吧?
我们听从某位领导的意见时,也不可能强制要求ta给出完备的“可解释性”说明(或必须让每个人都理解)吧?
我们自己做很多事、说很多话,很多时候都做不到较高水准的“可解释性”吧?
即然我们对人类自己和很多自然现象的可解释性都没有苛责,为什么一定要强求AI必须完全可解释呢?
一部分原因在于,有些人希望规避自己的责任(一旦AI带来生命财产损失,谁来负责?公司?政府?)。
另一部分原因在于,人类还没有适应AI这个与自己共生的新物种(或者说“新生活方式”)。
一旦经过较长时间的磨合,人性本身必然会慢慢接受的(达到心理、生理、物理的平衡),就类似现在西方国家可能已经部分接受了新冠病毒。
五、最后的话
“由用户来完成AI产品设计的最后一公里”,会让AI产品体验更加落地且有效。
你还留意到哪些类似的案例吗?欢迎到评论区交流分享。
注:本文2019年8月14日首发于“AI产品经理大本营”。
#专栏作家#
hanniman,人人都是产品经理专栏作家,前图灵机器人-人才战略官/AI产品经理,前腾讯产品经理,9年AI背景,12年互联网经验;关注人机交互(特别是语音交互)在手机、机器人、智能汽车、智能家居、AR/VR等前沿场景的可行性和产品体验;擅长对创业团队管理、个人成长提出实战型的建议方案;知乎/简书/微博帐号,均为hanniman。
本文原创发布于人人都是产品经理,未经许可,不得转载。
题图来自Unsplash,基于CC0协议。
页:
[1]