ai如何做联合效果,以及ai怎么联合对应的知识点,小编就整理了2个相关介绍。如果能碰巧解决你现在面临的问题,希望对各位有所帮助!
搜狗与新华社新媒体中心联合发布全球首个站立式AI合成主播,你怎么看?
在过去的2018年,人工智能成为了最火热的技术之一,AI技术不断发展,让越来越多的人开始担心,未来自己的工作会不会被机器人所代替,这种担忧看似很遥远,但是对于一些职业,变革已经悄然来临……
新华社联合搜狗公司开发的AI主播再次升级,新闻主播已经开始和人工智能竞争了。
就在昨天,新华社同搜狗公司召开了战略合作签署仪式,双方共同推动媒体行业的创新发展,在仪式上,双方共同发布了全新的站立式AI主播——“新小浩”和全球首个AI女主播——“新小萌”。
升级后的AI主播仍以新华社主播邱浩为原型,之前发布的AI主播只能保持坐姿,表情相对僵硬,神态与播报内容结合不够贴切。而本次升级之后,“新小浩”不仅可以坐着播报,更能站起来,加入更多的肢体动作,带着各种手势及姿态,声情并茂的播报新闻,看起来更加真实,更加智能。
本次升级也实现了技术上的重大突破,在声音模型、图像模型方面,成果显著,并且对“搜狗分身”技术有了巨大的提升与完善。
针对文字与声音的转换,以及对声音的模拟,都是基于声音模型完成的,本次升级采用了领先的波形建模技术生成音频,通过直接为音频信号的原始波形建模,一次为一种音频样本建模,来改变这种范式。
与听起来更为自然的语音相同,使用原始波形意味着其能够为任意类型的音频建模。经过这一技术合成的声音,更富有情感,表现力得到极大提升。
图像方面,本次升级在肢体动作方面下足了功夫,使用了海量手势数据,为其肢体动作模型进行学习,实现了“新小浩”丰富的肢体动作,并且根据主播原型邱浩的播报行为习惯进行数据分析,归纳手部动作的习惯,让动作和播报内容相结合,不再“尬舞”。
关键点标记顺序
除了肢体动作,在唇部动作方面,也对唇形合成模型进行优化,对于唇部动作的关键点标记有了新的方案,唇部共计标注20个关键点,外唇12个,内唇8个,提高了动作捕获的准确性。经过一系列优化,AI主播的声音和口型配合将更加自然,更加流畅。
除了站立式AI主播,本次的另一个亮点是首个AI女主播,基于AI男主播的开发经验,AI合成女主播“新小萌”的定制周期大幅度缩短,播报效果和稳定性极大提升,AI女主播将于今年的全国两会报道上正式亮相,加入新闻报道队伍。此外合成AI女主播标志着“搜狗分身”技术的更加成熟,为更广泛的“复制”奠定了基础。
截止目前,AI主播已发稿3400余条,累计时长达10000多分钟,参与了如第五届世界互联网大会、首届进博会、2019春运、农历猪年春节等重要报道,不久的将来可实现量产。
将视野放宽,其实虚拟人物生成技术可应用领域较为广泛,AI主播只是其中最初级的尝试。在技术成熟,并且可以实现低成本复制之后,将应用于娱乐、医疗、健康、教育、法律、金融等多个领域,通过提供个性化的行业解决方案。
人工智能的发展,正在让我们的生活变得更加美好,但是与此同时,又会让多少人失去工作?和人工智能比起来,我们该如何凸显核心竞争力,这一问题值得深思。
搜狗与新华网合作开发的全球首个Al合成主播出现各大媒体的新闻页面。很多人惊奇主持人邱皓的逼真表现。Al合成技术的出现将能够代替一些简单重复的工作。比如列车广播室的播音员,飞机机舱内播音员,导游等相对简单的工作讲逐渐被Al智能语音所替代。Al合成机器人的出现将使机器逐渐在一些对于需要需要复杂程度较低的动作由机器人来完成。
Al智能语音的合成在电影制作,工程讲解,景点解说,战地采访都将会发挥越来越大的作用。
由于Al智能语音本身不需要人来进行语音播报,不需要休息,理论上只要设备运转正常机器都可以进行7乘以24小时工作。传统的播音员需要休息,在进行外景摄影时,记者或者播音员到达新闻发生地需要适应当地的时差,环境,播音员很难快速适应当地的环境,导致工作效率低下。而智能语音主持人的使用则完全不用担心主持人无法快速适应新的工作环境导致新闻工作无法继续进行。
在情感方面,主持人播音员因为收到新闻事件的影响容易出现笑场,情绪悲愤等无法控制等现象,使用Al合成技术则能够很好的避免这种现象的发生。
NASA和Google联合宣布:谷歌的人工智能和开普勒天文望远镜共同了发现「第二个太阳系」 ,AI在这其中发挥了怎样的作用?
简单一点回答:研究人员利用被NASA标记过的1.5万个恒星数据,训练了一个卷积神经网络,然后把一个670颗恒星的数据集,给这个神经网络进行处理。通过微小的特征变化,发现了9个概率大于80%的信号,其中有4个概率大于90%。最终确认了这颗行星。
如果对多达15万颗恒星的大数据集进行分析,则意味着开普勒-90系统,极有可能是个超级庞大的家族,并且拥有数量众多的多种行星。
NASA宣布利用Google的人工智能发现了一颗新的系外行星,这是一个好消息,这是一个与太阳系同样规模的行星系统,还有8颗行星,俨然是一个小太阳系。这个小太阳系被命名为Kepler-90系统,距离地球2545光年,也算是比较远的。
开普勒望远镜的观测距离在5000光年之内,因此2545光年可以说是一个正常距离,说明我们已经将系外行星的观测从数百光年,推向数千光年远的位置。一旦距离扩大,那么我们有可能发现新的情况,比如宜居行星等。值得注意的是,Kepler-90系统有7颗恒星,而且是利用谷歌的人工智能技术发现的,这个人工智能技术其实是个神经网络,通过人工智能浏览开普勒望远镜的数据库,发现行星凌日现象时引起的恒星光线细微变化。因为通过人工识别,不仅速度慢,而且错误率比较高,如果用人工智能,可大大缩短发现时间,浏览开普勒望远镜的数据库的近程也会加快,毕竟这是一个拥有10万颗恒星的数据库。在过去20年内,开普勒望远镜项目天文学家发现的2000多颗西瓦行星,
谷歌的人工智能技术利用开普勒数据库中经过验证的信号,对神经网络进行训练,能够识别凌日现象时引起的恒星光线细微变化,这样可以大大提高识别的准确率。这就是AI发现行星的技术原理,其实是对数据库进行信号识别,一旦这个技术成熟,天文学家还将对由开普勒太空望远镜收集的10万多个恒星系统进行识别,大大加快发现系外行星的步伐。
NASA的科学家利用AI系统的强大计算能力对开普勒望远镜获取的海量数据进行自动化筛选,并在已经归档的数据中发现了一个此前在进行人工分析时被忽略的微弱异常信号,最终证明这是恒星开普勒-90周围存在的第八颗行星。
简单的说,Google的AI技术提高了对开普勒数据的分析效率。通俗的讲,google的AI让处理数据的能力更加智能化和高效了,就好比以前的计算机提高了人脑的计算效率一样。
那么,这项技术的神秘面纱是什么?开普勒望远镜所收集的数据又是什么呢?这项技术为何能高效处理这些数据来发现“第二个太阳系”的呢?
首先我们来回答第一个问题——谷歌的这项AI技术是什么?
神经网络技术。神经网络的构筑理念是受到生物(人或其他动物)神经网络功能的运作启发而产生的人工智能技术。神经网络已经被用于解决各种各样的问题,这些问题都是很难被传统基于规则的编程所解决的,例如机器视觉和语音识别。神经元在通过简单计算后将相关信息传递给下一级的神经元进行继续处理,以此类推。通过这种方式,计算机可以学会识别猫猫狗狗。当然,通过学习开普勒太空望远镜的光线信号,也可以用来识别地外行星。
第二个问题——开普勒望远镜所收集的数据是什么?
先来了解地外行星侦测法——凌日法。如果一颗行星从母恒星盘面的前方横越时,将可以观察到恒星的视觉亮度会略微下降一些,这颗恒星变暗的程度取决于行星相对于恒星的大小。开普勒太空望远镜使用的就是凌日法,望远镜在长时间里对超过十万颗恒星进行监视,扫描并记录每一颗恒星在不同位置的亮度变化。这种呈U形的明暗信号变化模式通过白色的线条来表示。下图中蓝色的点状分布,正是 NASA 在分析这些光变曲线后,得出“开普勒天体”的数据。
第三个问题——这项技术为何能高效处理这些数据以此来发现“第二个太阳系”?
简单来说,是科学家让电脑学会了辨认行星的特征。
过往,天文学家寻找系外行星的主要途径是通过自动化软件(使用的是特定编程,不具备AI的智能学习系统)或人工来对大量产生于开普勒望远镜的数据进行分析。过去四年,开普勒望远镜每 30 分钟拍摄一张照片,创造了约 140 亿个数据点。这 140 亿个数据点可以转化为大约 2 万亿个可能的行星轨道!对于计算能力最强大的计算机来说,这样的分析也是一个浩大的工程,而且会非常耗时。为了让这样的分析过程更快更有效,研究人员们转向了机器学习。
研究人员通过训练神经网络,让计算机学会了识别行星从恒星前方横越时产生的微弱信号(注意:先前的技术是不能让“计算机自己”识别这些信号的,需配合人的操作才行,这样先前的工作效率就低了很多)。
在使用这种技术对已知的 670 个多行星系统的扫描过程中,发现了行星开普勒 90i——恒星开普勒-90周围发现的第8颗行星(位于第六轨道)。至此,人类在太阳系外发现第一个由8个行星构成的行星系,也就是第二个太阳系。(下图上面一排是“第二个太阳系”,下面一排是我们的太阳系)。
实际上:Google已经开始将这套AI用在开普勒观测到的15万颗恒星数据上。下图中橙色区域为此次已经探索的区域,而广阔的未被探索区域(蓝色)中有可能还有大量的行星未被发现,预计不久之后又会有新的消息曝出,说不定会发现类似地球的行星,更多的“太阳系”。
更多优质回答,请持续关注镁客网头条号~
到此,以上就是小编对于ai如何做联合效果的问题就介绍到这了,希望介绍关于ai如何做联合效果的2点解答对大家有用。