> 新闻 > 国内新闻 > 正文

外祖父的白胡须

阿姨也是一个人,她心中的痛苦对谁说?

    本文经授权转载自知乎日报,作者:程毅南(腾讯用户研究)。其实对于大多数互联网业务来说,“大妈”是个不重要的群体——我们的新产品、新功能和新业务总是围绕着年轻时尚有梦想肯花钱的年轻人,而“大妈”就被留给传销、鸿茅药酒和不靠谱的理财产品去围猎。同时,大妈也承受着很多社会污名,在外面她们跳着扰民的广场舞,在家里她们催子女结婚生子,有时候还会在火车上霸座,或者去拦着婚车要钱。曾经在滴滴声名鹊起的日子里,人们担心中老年人疏于科技,会成为互联网时代的牺牲品,这对他们不公平。而时过境迁,也绝少再有人提起她们。然而,大妈其实对用户研究来说极为重要。正是因为大妈们不熟悉互联网产品,他们没有像年轻人一样遇到过那么多 bug 和千奇百怪的设计,所以当他们遇到困难时,他们不知道也许左滑或下拉就能看到更多信息,他们不知道也许在 APP 中的某个地方还埋藏着一个可以解决问题的功能……他们不擅长探索,他们不敢试错,甚至,他们发现无法实现需求时,会怪罪自己,觉得是自己太笨,玩不懂年轻人的东西。然而,如果你希望能从最基本的认知习惯出发来改进产品,你恰恰需要通过这些“新手”和“傻瓜”的眼睛来看问题。所以,在可用性测试时,比起遇到问题马上就能尝试其他路径解决、明明遇到很多问题但最终还是麻木地表示“还行吧,能用”的年轻人,我更喜欢邀请“天真无邪”的大妈来做测试。我就遇到这样一位大妈。在开始测试时大妈就明确表示,自己不太熟悉在网上买东西,总也买不好,所以她都是在线下买东西,“你们年轻人的东西我用不惯,我喜欢传统一点”。后来我发现,就连她自己信任的品牌、熟悉的产品,有 5~6 年的购买经验,几乎买遍了这家全部的东西,也都还是要在线下买。我问:“那您这么熟悉,肯定也不用摸不用试,如果能在网上直接买了送到您家,会更方便吗?”大妈也爽快,“当然方便,我太想这样了,但我就是不会用啊!” 所以我确信,大妈也想方便,她们不是老顽固,只是有东西横在她和互联网之间。是什么呢?其实很多互联网产品都有这样那样的毛病,排序的逻辑、提示的方式、页面的布局、颜色的误用,等等等等。我们研究的这款产品问题格外多,无论是大妈还是小年轻,甚至一些产品专家(在装成自己是傻瓜时)也无法完成最基本的任务。这些设计问题我就不详细说了,我就说说大妈。当这位大妈遇到她的第一个困难时(也是一个设计不合理的地方),简单尝试了两下后,发现无法解决,向我表示自己没法找到商品完成任务。为了保证测试的专业性,我不能直接教她该如何“正确地操作”,因为我们需要看用户遇到问题时如何自己克服探索,于是我就问,“那怎么办呢?”大妈很直接地一摊手:“那我还是去实体店里买罢”。“啊??”我这声惊叹倒是发自真心。一般来说,被试对于“那怎么办呢”这个问题的回应是马上去尝试一下别的路径,我真的没想到大妈这么快就放弃了。这才是她遇到的第一个问题,而就我们 40 分钟的任务设计来看,这样的问题她恐怕要遇到 7、8 个,年轻用户往往能趟过这些坎最终完成任务,我原本猜想大妈也只是比年轻人慢点,但没想到大妈直接就放弃了。我只好鼓励她“您先别放弃,再试试看有没有别的方法”。于是大妈尝试、失败、尝试、失败,周而复始……为了推进测试,我只好多给出一些提示和执导,大妈有时恍然大悟表示原来如此,有时摇摇头表示我真的看不懂。同时我也在不断安慰她“确实是产品做得差”,“您的问题非常合理,真的是他设计得不好”,“我第一次用我也这样”……但我隐约察觉到,大妈其实一直都很困惑和懊恼,觉得是她自己不会用,而不是我们做得差。测试越多我越感到愧疚——大妈很努力地在坚持、在尝试突破自己,而我们对她的回报就是一个又一个设计缺陷。漫长的旅程总算走向末尾,再差的体验也需要个了结,于是我恬不知耻地问大妈,既然了解了这么个渠道这么个工具,以后会不会用?出乎我的意料,就算整个过程很难用,大妈依然觉得这个 APP 很有帮助,以后买东西之前都会看看,至少可以和线下门店比比价,看看哪里便宜,要是 APP 便宜就在 APP 买了——大妈对某款商品原价 299 在 APP 特价 199 记忆犹新。我感到欣喜,同时我想到还有一个功能没有测——商品线下扫码——既然大妈说她会比价,那她说不定会用呢?于是我就再得寸进尺地问:“那您会在店里用吗?”出乎意料的回答又来了——“不会。”“为什么啊?”“我觉得在店里用手机 APP 比价,店员不会喜欢,会嫌我们大妈讨厌、爱占便宜。”我和旁边负责记录的同事,两个 90 后,面面相觑:“不能吧,对我们年轻人来说在店里拿手机出来拍照、扫码、看价格再正常不过了呀?”大妈苦笑一下,“我不敢这么做,我觉得年轻人(店员)不喜欢我们在店里用手机。年轻人觉得我们都是“大妈”,“大妈”你知道吧,跳广场舞扰民的那种大妈,手机不会用,小孩也不愿意教我用,嫌我烦。早两年我还经常拿着 APP 问别人该怎么用,现在我就不怎么问了,也不怎么用了。”我其实已经察觉出来了,她真的是这样,一旦发现自己用不好,第一个想法就是放弃,是自己不适合。“冒昧问一下您小孩今年多大?”“18 岁。”“刚上大学?”大妈点头。“正是叛逆的年级。”同事评论道。我一下想起早几年我妈问我某些 APP 怎么用,我也总是光顾着自己玩游戏懒得教她,而且口气很不耐烦。现在我不这样了。有一天我看到一个漫画,讲父母是如何不厌其烦地回答孩子的蠢问题,而且很多问题一遍又一遍,还有些天马行空的问题成人也不知道,但还是要硬着头皮说,而当他们老了,孩子们却开始嫌他们的问题烦。我一想到这个漫画就充满愧疚感。当然我妈已经是个网购高手,但她也总有不会用的新东西,其实有时候我也不会用,但我觉得我可以帮她探索然后再教给她,反正我不怕把东西捣鼓坏了。大妈用比较平静的语气讲道:“我觉得手机这些东西是你们年轻人的东西了,我们老了,不适合这些新科技了”。这话我听着很心酸,我觉得并不应该这样。科技应该为所有人服务,而设计就是沟通科技与人的桥梁,桥没修好,人过不了河,难道要怪人不会飞?甚至反问人为什么要过桥、呆在桥这边不是挺好嘛?固然随着年龄增大,人们的好奇心和学习能力都在下降,但很多产品的设计本身也很差,大妈们不会用并不完全是因为她们笨或者他们不学习,而是一些设计师和产品经理根本就没考虑对他们笑脸相迎。我从这些粗制滥造的设计中,感受到了一种残酷的排斥感,一种你用不来无所谓,反正你也不是 Target Customer 的傲慢,一种权力阶层对弱势群体的蔑视。我觉得这并不公平。我们现在还年轻,有些人还在嘲笑老人不会用手机,而如果二三十年后我们也老了,到时候 VR/AR 或者什么更酷炫的科技成了人类的日常,我们这一代人也要被抛弃了吗?我们会不会也成为一群新的广场舞大妈,比如“触屏大妈”、或者“徒手开车糟老头”?如果我们的科技公司一直保持着这样缺乏温度的性格,那么即使我们的经济持续腾飞,我们的社会还是不会真正明白什么叫“以人为本”,什么是“人人平等”。本文经授权转载自知乎日报,作者:程毅南(腾讯用户研究)。

    

    

     *文章为作者独立观点,不代表网立场

     本文由 程毅南© 授权

     网 发表,并经网编辑。转载此文请于文首标明作者姓名,保持文章完整性(包括注及其余作者身份信息),并请附上出处(网)及本页链接。原文链接:

    

    

     未按照规范转载者,保留追究相应责任的权利

    

    

     未来面前,你我还都是孩子,还不去下载 App 猛嗅创新!

当前文章:http://www.biem.cn/p9ik/510939-593945-97339.html

发布时间:03:45:26

广州设计公司  二四六天天好彩每期文字资料大全  二四六天天好彩玄机图  二四六图片玄机  二四六天天好彩每期文字资料大全  二四六天天好彩每期文字资料大全  二四六天天好彩玄机图二四六天天好彩每期文字资料大全  二四六免费玄机图  二四六免费玄机图  二四六天天好彩玄机图  二四六天天好彩玄机图  

{相关文章}

深度强化学习中的好奇心

    本文是AI研究所编写的一个技术博客。最初的标题是《深层强化中的好奇心》。

    本文是AI研究所编写的一个技术博客。最初的标题是:

    深度强化学习的好奇心

    作者|迈克尔克莱尔

    翻译|缩写2018

    校对|酱梨涂饰|菠萝女孩

    链接到原始文本:

    Http://towardsdata..com/holio.-in-.-.ment-.-.-.-network-.llation-747b322e2403

    深度强化学习中的好奇心

    早期密集学习的困难任务之一,Montezuma的复仇,在探索随机网络蒸馏方面取得了重大突破(来源:Parker兄弟博客)。

   &nb湖北麻城市_广东嘉宝莉化工有限公司网sp;Atari游戏是深层强化学习(RL)算法的一个流行的基准任务。Atari很好地平衡了简单性和复杂性:一些游戏(如Pong)是如此简单,以至于它们可以通过基本算法(如一般策略梯度)来解决,而其他游戏则足够复杂以至于可以击败甚至最先进的算法。

    在最简单和最复杂的游戏之间的一系列有用的任务已经成为许多深入加强学习研究论文的核心。

    来自OpenAI博客。

    前者“未解决”的阿塔里游戏,蒙提祖马的复仇,最近已经解决了一个算法(在某种程度上),可以在得分上超过人类表现。研究人员可以鼓励代理人在1级探索不同的房间,这是赢得游戏积分的好方法。

    通过好奇心探索

    人类在玩冒险游戏时有一种内在的探索欲望,比如蒙提祖玛的复仇。游戏设计者构建这样的游戏来鼓励这种行为,通常需要玩家在继续游戏之前进行探索。这就是为什么冒险游戏很有趣。(问任何喜欢玩天空游戏的人。)

    像Montezuma的《复仇》或《天空》这样的冒险游戏充分利用了玩家探索的自然欲望,使得探索成为游戏任务的关键部分。

    深度强化学习算法执行“探索”的典型方法是通过随机策略:从神经网络提供的动作似然分布中随机采样动作。因此,特别是在早期阶段(当策略没有时间收敛时),它是随机行动的明显选择。

    这种方法在某些情况下是有效的。例如,Pong的解决方案是随机旋转桨并观察结果。幸运的是,球偏转可以启动优化。

    在像蒙特祖马的复仇游戏中,这种方法是不可行的。想象一下,从游戏的开始,化身随机地左右移动,随机地跳跃。结果,化身掉进熔岩中或直接进入敌人而没有获得点数。没有积分或奖励,算法无法得到优化的信号。

    那你会随便甩一甩吗?祝你好运。

    好奇

    重点放在寻找更好的探索方法上。基于好奇心的探索可以看作是激发人类玩家好奇心的一种尝试。

    但是,我们如何创建一个好奇的代理呢?

    有很多方法可以实现这个想法。其中之一,甚至使用下一个状态预测,由于其简单性和可伸缩性而很有趣。

    其基本思想是同时培养独立的预测模型和策略模型。预测海阳楼盘_春节作文200字网模型输入所观测到的当前状态和所选择的动作,并对下一次观测进行预测。

    为了探索足够的轨迹,我们假设损失很小(因为我们通过监督学习不断开发预测模型);对于探索不足的轨迹,我们假设损失很大。

    那么,我们能做的就是创建一个新的奖励函数(称为“内在奖励”),它提供与预测模型的损失成比例的奖励。因此,当探索新的轨迹时,代理接收到强烈的奖励信号。

    (a)一级学习探索(b)二级快速探索

    使用马里奥模拟器任务(来源)中的下一个预测,学习探索从第一级的好奇心转移到第二级的快速探索。

    这项技术在超级马里奥模拟器中产生了一些令人鼓舞的结果。

    拖延症代理人:电视问题

    这项技术并不完美。一个已知的问题是代理被环境中的随机或噪声元素所吸引。这种时钟情况有时被称为“白噪声”问题或“电视问题”;也称为“拖延”。

    为了证明这种效果,设想一个代理人通过观察他所看到的像素来学习在迷宫中导航。

    下一状态预测引起代理人学习成功导航迷宫的好奇心。

    代理人很好地完成了任务;他开始寻找迷宫中未被探索的部分,因为他有能力在探险丰富的地区做出好的预测(或者换句话说,他不能在未开发地区做出好的预测)。

    现在在迷宫的墙上放一个“电视”,快速连续地显示随机选择的图像。由于图像的随机来源,代理不能准确预测接下来会出现什么图像。该预测模型将产生高损耗,从而为代理商提供高“内在”回报。最终的结果是,特工们倾向于停止看电视,而不是继续探索迷宫。

    在环境(源)中,当代理人面对电视或随机噪声源时,下一个状态预测引起代理人的好奇心,最终导致“拖延”。

    为了避免延误,采用随机网络蒸馏。

    OpenAI的一些优秀人员最近发表了一篇论文,提roger ver_要打仗了网出了噪声电视问题的解决方案,探讨了随机网络蒸馏(RND)。

    这里的新思想是将类似的技术应用到下一个状态预测方法,但是消除对先前状态的依赖。

    下一状态预测相对于RND(源)的概述。

    RND并不预测下一个状态,而是观察下一个状态并试图预测下一个状态。这是一个非常微不足道的预测,不是吗?

    RND随机网络的目的是采用这种小的预测任务,并将其转化为硬预测任务。

    使用随机网络

    这是一个聪明但违反直觉的解决方案。

    其思想是我们使用随机初始化神经网络将观测值映射到潜在的观测向量。函数本身的输出并不重要;重要的是,我们有一些未知的确定性函数(随机初始化的神经网络),以某种方式转换观测值。

    因此,我们的预测模型的任务不是预测下一个状态,而是预测给定观测状态的未知随机模型的输出。我们训练该模型使用随机网络输出标签。

    当代理处于熟悉的状态时,预测模型应该能够很好地预测随机网络的期望输出。当智能体对状态不熟悉时,预测模型会对随机网络的输出做出较差的预测。

    通过这种方式,我们可以定义一个内在的奖励函数,它再次与预测模型的损失伊芙蕾雅cos_附子理中丸副作用网成比例。

    内部报酬计算的概念概述。只使用下一个观察状态。

    这可以解释为“新奇性检测”方案,其中当进行新的观测或不熟悉的观测时,预测模型具有较高的计算损失。

    作者使用MNIST作为这个概念的证明。在本实验中,他们通过随机初始化神经网络提供MNIST样字符。然后,在给定的输入条件下立夏是什么时候_漫天繁星网,它们训练并行网络来预测随机网络的输入。如预期,当目标类的训练样本数量增加时,它们将看到目标类被并行网络丢失。

    数据2:MNIST上的新奇性检测:预测器网络模拟随机初始化的目标网络。训练数据包括不同比例的图像和目标类别与“0”类别。每个曲线都表示MSE测试显示的目标类的训练用例的数量(对数)。

    论文对MNIST概念进行了验证。

    这样,当代理看到随机噪声源时,它不会被卡住。它不需要试图预测屏幕上下一个不可预测的帧,只需要知道这些帧是如何通过随机网络转换的。

    探寻蒙太祖玛的复仇

    由于解决方法不佳,以往的状态预测的好奇机制并不能解决蒙台梭玛的复仇问题,但RND似乎已经克服了这些问题。

    好奇心驱使的代理人探索房间,学习收集钥匙,这样他们就可以打开新房间。

    尽管取得了这样的成功,但是代理仅“偶尔”通过了一级。这是因为通过最后一道门来完成检查点,需要严格管理密钥的使用。需要内部状态模型(如LSTM)来克服这一障碍。

    因此,虽然RND已经允许代理人在得分上超过一般人的表现,但是在掌握游戏之前还有很长的路要走。

    这是关于深度强化学习算法的实验的一系列文章的一部分。查看本系列以前的一些帖子:

    理解演进的战略梯度。

    感谢卢多维奇本尼斯坦特。

    要继续查看本文的链接和参考资料吗?

    长时间点击链接打开或点击底部[好奇心在深度强化学习]:

    Http://ai.yanxishe.com/page/Text./1363

    AI协会每天更新精彩内容,观看更多精彩内容:雷锋网、雷锋网和雷锋网。

    五大CNN架构

    深度强化学习中的好奇心

    使用Pytorch进行深度学习(第一部分)手柄:使用PyTorch实现图像分类器(第二部分写雷锋的作文_爱死了昨天 李慧珍网

    等待您翻译:

    如何为初学者聚类混沌数据以使用Keras进行迁移学习增强学习:对于情绪行为系统,如果你想学习数据科学,这七个资源不能错过

https://4l.cc/article.php?id=294&page=3https://4l.cc/article.php?id=291&page=1https://4l.cc/article.php?id=290&page=1https://4l.cc/article.php?id=290&page=2https://4l.cc/article.php?id=283&page=1https://4l.cc/article.php?id=273&page=1https://4l.cc/article.php?id=265&page=1https://4l.cc/article.php?id=263&page=1https://4l.cc/article.php?id=257&page=1https://4l.cc/article.php?id=257&page=2https://4l.cc/article.php?id=319&page=1https://4l.cc/article.php?id=244&page=2https://4l.cc/article.php?id=241&page=2https://4l.cc/article.php?id=239&page=1https://4l.cc/article.php?id=231&page=1https://4l.cc/article.php?id=226&page=4https://4l.cc/article.php?id=226&page=3https://4l.cc/article.php?id=285https://4l.cc/article.php?id=277https://4l.cc/article.php?id=320https://4l.cc/article.php?id=250https://4l.cc/article.php?id=226https://4l.cc/article.php?id=225http://4l.cc/article.php?id=311&page=1http://4l.cc/article.php?id=296&page=1http://4l.cc/article.php?id=293&page=1http://4l.cc/article.php?id=272&page=1http://4l.cc/article.php?id=263&page=2http://4l.cc/article.php?id=261&page=1http://4l.cc/article.php?id=251&page=1http://4l.cc/article.php?id=249&page=5http://4l.cc/article.php?id=248&page=4http://4l.cc/article.php?id=244&page=1http://4l.cc/article.php?id=233&page=4http://4l.cc/article.php?id=297http://4l.cc/article.php?id=294http://4l.cc/article.php?id=286http://4l.cc/article.php?id=285http://4l.cc/article.php?id=277http://4l.cc/article.php?id=265http://4l.cc/article.php?id=253http://4l.cc/article.php?id=251http://4l.cc/article.php?id=320http://4l.cc/article.php?id=319http://4l.cc/article.php?id=249http://4l.cc/article.php?id=238http://4l.cc/article.php?id=226https://4l.cc/article.php?id=291&page=1http://4l.cc/article.php?id=272&page=1http://4l.cc/article.php?id=320