什么应对智能AI带来的五常难点
分类:彩世界彩票注册平台官网

论坛上,科大讯飞医疗事业部副总裁陈德平介绍,科大讯飞联合上海开展206工程项目,即“上海刑事案件智能辅助办案系统”,与自动阅卷非常相似,通过机器学习全国最顶尖的法官判案的逻辑和标准,用大量的数据、案件“喂”它,让它像人一样能够给出一个案件评判的标准、量刑的尺度,经过两年多的探索,2018年3月份在上海全市正式开始试运行,不光是上海,目前山西、安徽、福建等地也开始尝试将这套系统应用在辅助断案上。

【嵌牛提问】:人工智能的持续发展进步是否会给社会带来很多伦理问题?我们应该怎样来应对?

新华社北京3月18日电新华社记者杨骏人工智能的伦理原则近来备受关注。联合国教科文组织总干事阿祖莱在3月初举行的“推动人性化人工智能全球会议”上就表示,目前还没有适用于所有人工智能开发和应用的国际伦理规范框架。对于科幻作家阿西莫夫上世纪设计、防止机器人失控的著名“机器人三定律”,业界早已认识到其局限性。“机器人三定律,历史上看贡献很大,但现在停留在三定律上,已远远不够。”专家近日接受记者采访时这样说。新局面,呼吁伦理新原则科学家先前一直希望以最简单的办法,确保以机器人为代表的人工智能不给人类带来任何威胁。“机器人三定律”规定:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。“机器人不能伤害人,但机器人会以什么方式伤害到人?这种伤害有多大?伤害可能以什么形式出现?什么时候可能发生?怎样避免?这些问题在今天要么需要细化,要么需要有更具体的原则来防范,而不能停留在七八十年前的认识水平。”中国人工智能学会AI伦理专业委员会负责人、中国科学技术大学机器人实验室主任陈小平教授说。全球知名的艾伦人工智能研究所首席执行官埃齐奥尼两年前就在一次演讲中呼吁更新“机器人三定律”。他还提出,人工智能系统必须遵守适用于其操作人员的所有法律条文;人工智能系统必须明确表示它不是人类;未经信息来源明确许可,人工智能系统不能保留或披露机密信息等。在当时,这些颇有新意的意见引发业界热议。美国人工智能伦理领域知名学者、麻省理工学院教授泰格马克近年推广的“AI有益运动”提出,需有新伦理原则确保未来人工智能和人类的目标一致。这项活动曾获得霍金等众多全球顶级科学家以及知名IT企业支持。“人工智能在乘数效应的推动下会变得越来越强大,留给人类试错的空间将越来越小。”泰格马克说。人为本,全球探路新伦理当前全球对人工智能新伦理的研究日趋活跃。不少人对人工智能心存芥蒂,多半来自其高速发展带来的未知性,“保护人类”成为首当其冲的关切。“必须确保人工智能以人为本的发展方向。”阿祖莱呼吁。美国机器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。新伦理原则不断提出,但突出以人为本的理念始终不变。百度公司创始人李彦宏在2018年中国国际大数据产业博览会上提出了“人工智能伦理四原则”,首要原则就是安全可控。美国电气和电子工程师协会规定,人工智能要优先考虑对人类和自然环境的好处的最大化。新的伦理原则制定也正提上各国政府的议事日程。中国政府2017年7月发布《新一代人工智能发展规划》时就指出,建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2018年4月,欧盟委员会发布的文件《欧盟人工智能》提出,需要考虑建立适当的伦理和法律框架,以便为技术创新提供法律保障;今年2月11日,美国总统特朗普签署行政令,启动“美国人工智能倡议”,该倡议的五大重点之一便是制定与伦理有关联的人工智能治理标准。存忧虑,跨界共商新问题陈小平呼吁,为规避人工智能发展过程中的伦理道德风险,人工智能学术界和产业界,以及伦理、哲学、法律等社会学科各界应参与原则制定并紧密合作。他认为,虽然从短期看还没有证据指向人工智能有重大风险,但依然存在隐私泄露、技术滥用等问题。而无人驾驶、服务类机器人的伦理原则也须尽快探讨制定。美国电气和电子工程师协会还规定,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可追责性,证明其为什么以特定方式运作。“就长期来看,不能等到出现了严重的问题,再制定措施去防止。”陈小平认为,人工智能和其他技术的特点不一样,很多人工智能技术具有自主性。例如自主机器人在现实社会中具有物理行动能力,如果没有适当的防范措施,一旦出现严重问题,可能危害较大。陈小平希望更多人参与人工智能伦理研究,尤其是科学家和工程师,因为恰恰他们最了解问题的根源、危险可能发生的方式、细节和相关技术进展,“他们不说,外界只能去猜,难以得出正确的判断和适当的应对措施”。他还提醒,在防范风险的同时应该注意平衡,避免因为过度限制或使用不合适的降低风险方式造成遏制产业发展的副作用。

他山之石,可以攻玉。欧盟议会法律事务委员会也专门研究与机器人和人工智能发展相关的法律问题,早在2016年5月,该委员会提出了两个建议,第一个是对机器人适用强制保险机制,这类似于针对机动车的强制险,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配。其次是设立赔偿基金;这一制度有两大目的,其一,对强制险未予覆盖的损害进行赔偿,其二,让投资人、生产者、消费者等多方主体参与这一机制,从而形成赔偿基金。

构建算法治理的内外部约束机制

超越“机器人三定律” 人工智能期待新伦理

“民事主体有一个发展的过程,早期被限于自由民,奴隶则被当成客体;但随着社会的进步,所有生物意义上的人都成为了民事主体。后来,民事主体还包括了拟制的法人。那么为什么人工智能不可能在一定程度上拥有‘人格’呢?”刘颖说,如果人工智能具有完全的自主性,能够承担责任,法律就有可能赋予它法律人格。

在今天这个人工智能快速发展,人类在诸如围棋、图像识别、语音识别等等领域开始落后于人工智能的时代,对人工智能进行伦理测试同样重要,包括道德代码、隐私、正义、有益性、安全、责任等等,都是十分重要的。现在的AI界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来这样跨学科的AI伦理测试需要加强研究。因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更复杂的工具”,但不可否认,我们需要确保这样的复杂工具进入人类社会以后和人类的价值规范及需求相一致。

针对人工智能可能造成的数字鸿沟扩大,来自韩国的数字智力商数研究所创始人朴宥顯博士认为,应该让教育使孩子成为AI时代的主人,由此提出了“数商”的概念,她说,前两次工业革命时代提出了IQ,以适应工厂自动化技术的需要,而在工业3.0时代,城市化的浪潮下需要人与人的交融,于是EQ应运而生,而进入工业4.0时代,还需要一个新的数商,通过教育帮助孩子面对新的风险。

二是在AI研发中贯彻伦理原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护,等等。另一方面,需要建立AI伦理审查制度,伦理审查应当是跨学科的,多样性的,对AI技术和产品的伦理影响进行评估并提出建议。

IEEE(电气和电子工程师协会) 《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》,鼓励优先考虑伦理问题。

第一个是算法歧视。可能人们会说,算法是一种数学表达,是很客观的,不像人类那样有各种偏见、情绪,容易受外部因素影响,怎么会产生歧视呢?之前的一些研究表明,法官在饿着肚子的时候,倾向于对犯罪人比较严厉,判刑也比较重,所以人们常说,正义取决于法官有没有吃早餐。算法也正在带来类似的歧视问题。比如,一些图像识别软件之前还将黑人错误地标记为“黑猩猩”或者“猿猴”。此外,2016年3月,微软公司在美国的Twitter上上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。而且,算法歧视会带来危害。一方面,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必然危害个人权益。另一方面,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上是比较困难的。

毫无疑问,引入人工智能有助于提升办事效率,在司法领域辅助办案也开始成为现实。

第三个是责任与安全。霍金、施密特等之前都警惕强人工智能或者超人工智能可能威胁人类生存。但在具体层面,AI安全包括行为安全和人类控制。从阿西莫夫提出的机器人三定律到2017年阿西洛马会议提出的23条人工智能原则,AI安全始终是人们关注的一个重点,美国、英国、欧盟等都在着力推进对自动驾驶汽车、智能机器人的安全监管。此外,安全往往与责任相伴。如果自动驾驶汽车、智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟

2017年5月,微软和湛庐文化合作推出了小冰原创诗集《阳光失了玻璃窗》,这是人类历史上第一部100%由人工智能创造的诗集,也由此引发了学者的讨论:对于人工智能生成的内容,法律有没有可能赋予它知识产权?

【嵌牛导读】:人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让人工智能真正有益于人类社会,我们也不能忽视人工智能背后的伦理问题。现在的人工智能界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来跨学科的人工智能伦理测试需要加强研究。

英国 《机器人与人工智能》呼吁加强人工智能伦理研究,最大化人工智能的益处,并寻求最小化其潜在威胁的方法。

但是需要解决两个困境。其一是伦理困境。比如,在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的问题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类社会都是没有解决的,在自动化的场景下也会遇到这样的问题

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

第二个是隐私忧虑。很多AI系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法。数据已经成了AI时代的“新石油”。这带来新的隐私忧虑。一方面,如果在深度学习过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。所以国外的AI研究人员已经在提倡如何在深度学习过程中保护个人隐私。另一方面,考虑到各种服务之间大量交易数据,数据流动不断频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、差别化隐私、决策矩阵等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。

名词解释

【嵌牛正文】:

阿西莫夫三大定律

四是针对算法决策和歧视,以及造成的人身财产损害,需要提供法律救济。对于算法决策,一方面需要确保透明性,如果用自动化的手段进行决策决定,则需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器人等带来的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是可以考虑的救济措施。

刘颖说,如果说人工智能是有法律主体资格的,那么以后要不要给工厂里进行劳动的机器人制定一个机器人劳动合同法?再进一步往下发展,人工智能是否要承担刑事责任,作为刑事责任能力的主体?

在此背景下,各种互联网服务中越来越多地看到人工智能的影子,人们日益生活在算法之下,算法决策开始介入甚至主导越来越多的人类社会事务。比如,人们在互联网上获取的内容,诸如新闻、音乐、视频、广告等等,以及购买的商品,很多都是推荐引擎个性化推荐给用户的,而不是有人在背后决策。再比如,在金融领域,算法可以决定是否给某个用户发放贷款,以及具体的贷款额度。此外,一家美国投资公司早在几年前就开始研发管理公司的AI系统,招聘、投资、重大决策等公司事务都由这个AI系统来管理并决策。也许在未来,一家公司的成功不再主要依赖于拥有像乔布斯那样伟大的CEO,而是一个足够智能足够强大的AI系统。更有甚者,英国、欧盟等都在大力推动人工智能技术在政务和民生方面的更深应用,政府服务不仅是数字化,而且是智能化。

各地关于AI伦理的法律探讨

为什么算法并不客观,可能暗藏歧视?算法决策在很多时候其实就是一种预测,用过去的数据预测未来的趋势。算法模型和数据输入决定着预测的结果。因此,这两个要素也就成为算法歧视的主要来源。一方面,算法在本质上是“以数学方式或者计算机代码表达的意见”,包括其设计、目的、成功标准、数据使用等等都是设计者、开发者的主观选择,设计者和开发者可能将自己所怀抱的偏见嵌入算法系统。另一方面,数据的有效性、准确性,也会影响整个算法决策和预测的准确性。比如,数据是社会现实的反映,训练数据本身可能是歧视性的,用这样的数据训练出来的AI系统自然也会带上歧视的影子;再比如,数据可能是不正确、不完整或者过时的,带来所谓的“垃圾进,垃圾出”的现象;更进一步,如果一个AI系统依赖多数学习,自然不能兼容少数族裔的利益。此外,算法歧视可能是具有自我学习和适应能力的算法在交互过程中习得的,AI系统在与现实世界交互过程中,可能没法区别什么是歧视,什么不是歧视。

···························································

人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让AI真正有益于人类社会,我们也不能忽视AI背后的伦理问题。

“在国外,关于人工智能伦理规范的文本已有不少,而中国还没有成行的文本。”蔡雄山说,如何让人工智能符合人类社会的各种规范和价值,最大化其好处,是构建普惠人工智能和有益人工智能必须解决的问题。

三是对算法进行必要的监管,避免算法作恶。现在的算法确实是越来越复杂,包括决策的影响都是越来越重大,未来可能需要对算法进行监管。可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准等等;透明性方面,包括算法自身的代码透明性,以及算法决策透明性,国外现在已经有OpenAI等一些人工智能开源运动。此外,还有审批制度,比如对于自动驾驶汽车、智能机器人等采用的算法,未来可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。

联合国 2016年8月,COMEST发布“机器人伦理初步报告草案”,机器人不仅需要尊重人类社会的伦理规范,而且需要将特定伦理准备嵌入机器人系统中。

第四个是机器人权利,即如何界定AI的人道主义待遇。随着自主智能机器人越来越强大,那么它们在人类社会到底应该扮演什么样的角色呢?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?我们可以虐待、折磨或者杀死机器人吗?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。这个问题未来值得更多探讨。此外,越来越多的教育类、护理类、服务类的机器人在看护孩子、老人和病人,这些交互会对人的行为产生什么样的影响,需要得到进一步研究。

将社会伦理原则嵌入AI系统中

第三次AI(人工智能,以下简称AI)浪潮已经开启。在技术层面,有算法的进步。当1956年人工智能开始起步的时候,人们更多是在说人工智能;在第二次浪潮期间,机器学习成为主流;这一次则是深度学习,是能够自我学习、自我编程的学习算法,可以用来解决更复杂的任务。此外,计算能力的提升,包括现在的量子计算机,以及越来越普遍的大数据,对人工智能的作用和价值也非常大,使得更复杂的算法成为可能。在应用层面,从语音识别、机器翻译到医疗诊断、自动驾驶,AI应用在不断加深、不断成熟,甚至已经开始超越人类,引发人们关于失业的担忧。同时也让人们开始期待具有通用智能的终极算法。在商业层面,面对可预期的好处和利益,国内外主流的互联网公司如腾讯、谷歌等都开始向AI看齐,AI领域的创业和投资在如火如荼地进行着。全球已经有超过1000家AI公司,市场规模增长空间是非常大的,未来八年内将超过350亿美元。

他举了一个例子:在美国威斯康辛州,一位罪犯申请减刑,陪审团利用人工智能手段,根据他个人的成长经历、成长的社区的环境,做出判断认定他有可能犯罪并不同意缓刑。罪犯马上上诉,“机器是某一家公司生产的,这个公司也许在软件的设计上对我一个有色人种持有偏见”,于是法庭要求公司公开算法,但被公司以商业秘密为由予以拒绝。

一是合伦理的AI设计,即要将人类社会的法律、道德等规范和价值嵌入AI系统。这主要是电气和电子工程师协会、英国等在提倡。可以分三步来实现。第一步是发现需要嵌入AI系统的规范和价值,存在道德过载和价值位阶的问题,即哪些价值优先,哪些价值在后。第二步是将所发现的规范和价值加入AI系统,需要方法论,有自上而下和自下而上两种路径。第三步是对已经嵌入AI系统的规范和价值进行评估,看其是否和人类社会的相一致。一方面是使用者评估,需要建立对AI的信任,比如当AI系统的行为超出预期时,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。

不过,AI在司法辅助办案上可以拥有多大的“权力”?广东省法学会网络与电子商务法学研究会会长、暨南大学法学院党委书记刘颖教授介绍,办案过程中引入人工智能分析,可以辅助检察官进行证据抓取、要素比对,还可以协助法官根据嫌疑人的成长经历、犯罪记录乃至其生活地区的犯罪率等数据,以判断再犯罪的可能性。但这也会带来一个疑虑:人工智能协助判案有没有正当性?

人工智能伦理问题日益凸显

美国 《国家人工智能研发战略计划》提出开展人工智能伦理研究,研发新的方法来实现人工智能与人类社会的法律、伦理等规范和价值相一致。

**人工智能时代加速到来,算法决策兴起
**

此外,各大城市已经陆续发放路测牌,无人驾驶的汽车发生事故之后责任怎么判定?蔡雄山说,到L4级和L5级阶段,不仅将实现完全的自动驾驶,而且汽车也将不再有方向盘,人也无法接管汽车,一旦出现责任事故谁来承担刑事责任,是生产汽车的厂商还是智能系统厂商?

其二是价值对接的问题。现在的很多机器人都是单一目的的,扫地机器人就会一心一意地扫地,服务机器人就会一心一意给你去拿咖啡,诸如此类。但机器人的行为真的是我们人类想要的吗?这就产生了价值对接问题。就像Midas国王想要点石成金的技术,结果当他拥有这个法宝的时候,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么呢?因为这个法宝并没有理解Midas国王的真正意图,那么机器人会不会给我们人类带来类似的情况呢?这个问题值得深思。所以有人提出来兼容人类的AI,包括三项原则,一是利他主义,即机器人的唯一目标是最大化人类价值的实现;二是不确定性,即机器人一开始不确定人类价值是什么;三是考虑人类,即人类行为提供了关于人类价值的信息,从而帮助机器人确定什么是人类所希望的价值。

业界 2017年Asilomar会议提出人工智能23条原则,涉及人工智能伦理和价值,推动有益人工智能发展,其中提及,将人类规范和道德价值嵌入人工智能系统。

作者:梁东星              班级:1402019              学号:14020199040

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;

【嵌牛鼻子】:人工智能  伦理问题

科幻作家阿西莫夫于1942年首次明确提出“机器人三定律”。

更进一步,算法倾向于将歧视固化或者放大,使歧视自我长存于整个算法里面。算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误的输入形成的错误输出作为反馈,进一步加深了错误。最终,算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。包括预测性警务、犯罪风险评估、信用评估等都存在类似问题。归根到底,算法决策其实缺乏对未来的想象力,而人类社会的进步需要这样的想象力。

“人工智能进入大众视野,大家一定会记得阿西莫夫三大定律,用一句话来说就是,比人类更厉害的其实不是人工智能,而是掌握了人工智能的人类。”陈德平说。

AI或将引发产权、数据安全等纠纷

AI能否拥有法律“人格”?

AI还将引发数据安全的问题。“在人工智能时代,数据已经成为像石油和天然气一样重要,但AI系统需要数据‘喂养’,如何保护个人数据并区分非个人数据?比如无人驾驶汽车行驶汇总的数据,哪些可以交易?广东将建数据集群应用,如果数据产权不清晰,是否可以集中在一起?”蔡雄山说。

在刘颖看来,一旦法律赋予人工智能以法律人格,这又可能会对当前的人格法、刑事责任制度、知识产权、侵犯责任或劳动法律制度,产生一系列的连锁反应。

延伸

图片 1

人工智能机器人作品版权归属方是谁?人工智能能否在辅助办案时替办案人员作出决策?未来人工智能会不会挑战人类社会的秩序?在人工智能成为国际竞争的新焦点、经济发展的新引擎的同时,发展的不确定性也带来新的挑战;人工智能因其自主性和学习能力而带来不同于以往任何科技的新的伦理问题,对人类社会各方面也将带来重大影响。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;

上周,2018中国新一代人工智能发展战略国际研讨会暨高峰论坛在广州举办,人工智能的法律与伦理问题也引发了与会专家的热议。

“现在人工智能不仅可以写诗,还可以生产新闻、画画、创作音乐。我仔细看了微软小冰机器人写的诗集,还是不错的,它通过图像识别可以做到看图说话,比如它看到了沙漠,沙漠中有太阳,它可能就联想到‘大漠孤烟直’,就可以写出一段文字。”腾讯研究院法律研究中心副主任、首席研究员蔡雄山说,知识产权的归属也就成为一个难题:我创造了一个软件,写了很多诗,当我把这个软件卖了,它又出很多本诗集,获得的收益比软件还值钱,这肯定会引起一些产权纠纷。

对此,他也提出了一些自己的建议,人工智能伦理应该遵循的一些基本原则:首先是自由原则,保障人的权利和自由,加强隐私保护,防止数据被滥用;其次是正义原则,确保算法决策的透明性,保障人工智能的权益在世界范围内公平分配,缩小数字鸿沟;第三个是福祉原则,要促进可持续发展,避免军备竞赛,要应对人工智能带来的就业影响等;第四是合伦理原则,把社会的伦理原则能够嵌入到人工智能系统上,让伦理设计和人类的规范相符合;此外还包括安全原则,保障安全,以及责任原则,应该探索人工智能应用的监管制度,保障安全,促进发展。

而另一方面,“无人售货”正成为当下的一个热点,自动售货系统,包括柜员机、自动售货机、平台等制定的合同有没有效?刘颖说,答案是肯定有效,但是其依据在哪里?人工智能机器只是设立机器的人的代表。2019年1月1日将实施的《电子商务法》明确规定,使用柜员机、自动售货机、平台等自动信息系统订立或履行的合同对使用该系统的当事人有法律效力。

本文由彩世界注册首页发布于彩世界彩票注册平台官网,转载请注明出处:什么应对智能AI带来的五常难点

上一篇:内容付费行业,出版商最终要屈服于“流量”平 下一篇:没有了
猜你喜欢
热门排行
精彩图文