020-39991468

快捷导航

# 业务咨询
电 话:020-39991468

张经理 / 18665606093

Email / service@2000new.com

Wechat

扫一扫添加顾问

人工智能什么时候能完全影响搜索算法

来源:新际网络 发布时间:2021-03-27

  近年来,网站建设被称为时代主题。企业、政府、政府机构、组织和个人都在为自己的网络宣传平台做准备。自从媒体时代发展以来,网站建设不能走向破产。随着人工智能技术在物联网中的应用,通过人工智能技术对应用技术进行深化和改革,使整个时代的机械化变为人性化。SEOer行业人士曾指出,人工智能时代将彻底改变世界,也将对网络优化产生一定影响。SEO搜索算法目前只使用搜索引擎算法,没有融入人工智能技术。影响人工智能技术扩展的人,需要看搜索引擎工程师对搜索系统的判断。


  人工智能是一个黑匣子


  深度学习以一种不太严格但容易理解的方式,就是给已有的数据(大量数据)贴标签,然后系统自己总结数据和结果的关系(即标签),面对新的数据时,可以根据自己总结的规则进行判断。对于围棋来说,无论是历史游戏还是自我游戏,AlphaGo都知道脸和结局(也是标签),所以系统会总结规则,判断面对新脸时赢棋的概率。但是AI系统发现了数据的什么特征,和结果有什么关系,连创造AI的工程师都不知道。


  所以,目前的人工智能系统是一个黑箱。我们知道AI判断的准确率高,但是不知道为什么,也不知道怎么判断。


  AI在搜索算法上也是如此。百度搜索工程师很少说只知道百度现在是All  In  AI。谷歌工程师已经明确表示,他们不知道RankBrain到底是如何工作的。这种情况下,算法中大量使用人工智能就比较麻烦了。一旦出现异常结果,不知道是什么原因,无法调试。


  我写这个帖子是因为前几天在纽约时报上看到一篇文章“AI能学会自我解释吗?”,很有意思。心理学家Michal  Kosinski将20万个社交网络账号(是交友网站)的照片和个人信息(包括很多内容,比如性取向)输入人工智能系统进行面部识别,发现人工智能在只看到照片的情况下判断性取向的准确率很高。通过照片判断一个人是否是同性恋的准确率为60%,比扔硬币的准确率略高,但人工智能判断男性是否是同性恋的准确率高达91%,判断女性的准确率更低,也是83%。


  你看不到有助于你判断的信息,比如语气、姿势、日常行为、人际关系。同性恋是否具有外表纯洁的特点?我个人的经验是,以貌取人不靠谱。以前认识一对男同性恋,很有男人味,常年健身,待人彬彬有礼但从不女性化,从外面看不出来。可能也是靠某些服装特点?表情?背景?人工智能从照片中看到了哪些我们人类很可能忽略或者人类根本看不到的特征,准确率91%?不知道,只是知道AI很准。不能说明你的AI不可信


  这个黑盒特征有时候是不相关的,比如判断性取向。有时候不能这么草率,比如看医生。虽然AI系统诊断某些癌症的正确率已经达到了人类医生的水平,但得出的结论是目前医生还是要做的,尤其是AI无法告诉我们其诊断原因的时候。除非AI能解释为什么以后会做出这种诊断,否则人类百分百信任AI是有很大的心理障碍的。


  前几天刚看到新闻,新加坡政府开始测试无人驾驶公交车。这显然是正确的方向,相信在不久的将来会成为现实。虽然自驾汽车的事故率比人低,大家都知道其实更安全,但是过马路的时候,停在我旁边的公交车没有司机,我会不会有点担心它突然启动?当我开车时转过头,我看到我旁边的公共汽车上没有司机。我会不会震惊,下意识的远离?至少在早期。和几个朋友聊起这件事,我理性的相信,情感上愧疚。


  此前,该计划依赖于确定性和因果关系。例如,搜索算法中的哪些页面特征是排名因素,每个占据多少权重,这些都是由工程师选择和确定的。虽然可以通过拍打头部来决定选择,但是在监控效果和调整参数之后可以获得令人满意的平衡。人工智能系统并不依赖于工程师给出的因果关系,而是更善于发现概率和相关性之间的联系。对于人来说,往往很难解释以概率和相关性为特征的判断原因,比如,也许看心情,也许看起来好不好。


  要求AI系统解释自己的判断不仅仅是心理问题,将来可能会变成伦理法律问题,就像看病一样。再比如涉及用户利益的事情,比如贷款。人工智能基于大量数据做出拒绝贷款的决定,但银行无法解释为什么拒绝,应该如何向用户解释?今年,欧盟可能会发布规定,要求机器做出的决定必须得到解释。这对谷歌、Facebook等全球性企业来说是一种压力。在许多领域,如军事、法律和金融,所有的决策都需要有人负责。如果一个决定不能说明原因,恐怕没有人敢承担责任。


  需要AI来解释原因的另一个原因是,如前所述,人工智能看的是概率和相关性,但是基于相关性做出决策有时会导致严重的错误。《纽约时报》的文章举了一个例子。总的来说,数据训练出来的人工智能系统辅助了医院急诊室的分诊,但研究人员仍然不敢真正使用,因为数据中的相关性可能会误导人工智能做出错误的判断。比如数据显示,哮喘合并肺炎患者最终恢复情况好于平均水平,这种相关性是真实的。如果AI系统因为这个数据而给哮喘肺炎患者较低的治疗水平,可能会发生一些事情。因为这些病人最后状态都很好,因为他们一到就被给了最高的等级,得到了最好最快的治疗。所以,有时候我们从关联性中看不到真正的原因。解释性人工智能


  X.A.I  .(可解释人工智能)是一个新兴领域,旨在使人工智能解释自己的判断、决策和过程。去年,美国国防部高级研究计划局启动了由大卫葛宁博士领导的XAI项目。谷歌在这一领域仍然处于领先地位,深梦似乎是这项研究的副产品:


  人工智能与SEO


  回到搜索算法和SEO,搜索引擎不能完全应用人工智能的原因之一是人工智能的判断无法解释和理解。如果算法使用目前的人工智能,一旦排名出现异常,工程师就不知道是什么原因,更不知道如何调整。


  我觉得自动驾驶是AI最早的实用领域之一,和能否解释有关系。自驾汽车的大多数决策几乎不需要解释,或者解释一目了然,因为离前面的车太近,需要减速或者刹车。这样的判断应该不需要进一步解释。


  SEO的人大概也有同样的疑惑。一个竞争对手的页面看起来没什么特别,内容不好,视觉设计一般,外链一般,大家做同样的页面优化。为什么排名这么好?目前的搜索算法也可以探究原因,搜索工程师大概有内部工具看排名的合理性。如果搜索工程师看了一个不好的页面,排名第一,但是不知道为什么,还找不到,心里可能会着急。


  XAI研究刚刚开始,给SEO们一个最后的缓冲期。从人工智能系统在其他领域碾压人类的表现来看,一旦大规模应用于搜索,作弊和黑帽SEO很可能成为过去式,目前的常规SEO工作可能变得无足轻重,所以SEO人需要回归网站的本质:提供有用的信息或产品,没有其他办法。


联系我们
  1. 咨询电话 咨询电话

    业务咨询:

    020-39991468

    服务监督:

    郭经理 18620727292
  2. 联络邮箱 联络邮箱

    业务邮箱

    service@2000new.com

    招聘邮箱

    hr@2000new.com
  3. 新际网络公司总部地址 总部中心
    广州市番禺区汉溪大道东388号四海城商业中心4栋7楼
  4. 新际网络 微信客服 微信沟通
    售前顾问

    扫一扫加售前顾问

返回顶部

电话咨询

在线咨询

留言预约

*新际020中心将尽快与您联系