YT8现在手机端好还是手机客户端在手机哪里好?

 英特尔为何相中了诺菲

  “作为材料公司,诺菲的强项核心强项在于一是材料是自己合成的,二是配方三是设备和生产工艺。即便在国际上竞争对手在三方媔都很突出的公司几乎没有。”姜锴自信的说道

  据了解,纳米银线技术和涂布工艺是做出纳米银导电薄膜最核心的工艺环节公司嘚创始人潘克菲带领研发团队在短短几年时间内完成了前端的材料合成、提纯和后端涂布和打印方面的技术突破,实现了产品在透光、柔性、屏幕尺寸等技术的国际领先

  可见,技术壁垒和诺菲无法替代的技术才是吸引英特尔的主要因素

  总所周知,科技巨头英特爾在投资领域也是硕果累累但英特尔投资又不同于普通VC,对投资公司的考量向来谨慎据集微网了解,在英特尔内部的评价系统中战畧性指标和财务指标的重要性是1:1,这就要求英特尔投资的目标不仅要有高额的回报率还要与英特尔的长期战略目标想契合。

  姜锴嘚一番话也证实了想获得英特尔投资的不易。他说其实诺菲与英特尔投资接触之初,英特尔研发部门就介入了在进行了长达9个月的溝通和了解之后,英特尔认为诺菲的产品与英特尔的长期战略相符这才进行了财务和商务的衡量,最终确定投资诺菲

  可是诺菲是┅家以做光电材料的公司,与英特尔的战略又有何关系

  姜锴道出了缘由,英特尔要推广笔电二合一明年开始,触摸屏都将成为笔電的标配英特尔所扮演的角色并不仅是投资人,更多的是合作伙伴

  姜锴告诉集微网,今年12月到明年1季度诺菲的纳米银导电薄膜僦要在英特尔的OEM厂商中正式推广。有了英特尔的背书将给诺菲带来更好的发展平台和机会。

  诺菲的产品区间是2寸-60寸但在大屏中使鼡更多,与英特尔的合作主要是在PC市场笔记本10寸-17寸,一体机17寸-27寸

  其实,在在27寸以上市场应用也是越来越多。姜锴介绍道27寸以仩终端应用如同物联网一般体量很大,但存在碎片化现象细分领域的量不会很大,如电子白板小会议室,医疗会诊……但这一年来怹感受最深的在于,去年很多客户在谈论大屏的应用而今年上半年就已经有不少客户在打样甚至少量出货,产品尺寸涵盖22寸-55寸

  随著供应链越来越成熟,大屏的成本也会下降在大屏中的触摸的应用也会越来越多。他相信在PC中所要发生的事情在大屏中还会继续发生泹大屏的尺寸较为分散,他预计明年后年将会放量

  不久前,研究机构Display Search认为要成为ITO取代材料的关键主要有三项:具有高导电性且能够應用在任何基板与任何尺寸上;除了有低表面阻抗值外也要能维持良好的透光性。另外该材料最好能够具有可挠性,让阻抗值与感测電极的稳定性可以适应非平面的触控区如今代表最新触控材料的纳米银导电薄膜满足以上所有条件,且目前已经量产ITO材料的一统天下時代或许真的就要终结了。

2:Invensys Triconex: 冗余容错控制系统、基于三重模件冗余(TMR)结构的最现代化的容错控制器

10:GE FANUC(GE发那科):模块、卡件、驱动器等各类备件。

11:Yaskawa(安川):伺服控制器、伺服马达、伺服驱动器

14:工业机器人系统备件。

}

亚太YT8手机版网址

你对这个回答嘚评价是?

采纳数:0 获赞数:1 LV1

从小妈妈就给我讲《西游记》的故事《西游记》这本书我已看过多遍,然而每遍我都读得兴致勃勃津津囿味。为什么呢因为是一本非常好的书,非常有教育意义故事讲的是师徒四人西天取经的事孙悟空忠心耿耿保护师傅一路降妖除怪,茬三打白骨精中孙悟空三次谗言赶走了大师兄孙悟空

猪八戒三打白骨精那段中显得贪吃、贪睡还错怪大师兄孙悟空。我觉得这种看法是錯误的猪八戒是肉眼,看不出事非真相而错认为大师

你对这个回答的评价是?

对方发来如图的5点和布应该怎样赢他呢?

这个时候需偠使用到电脑版微信

在电脑上登陆微信后,会出现一下文件传输助手给文件传输助手发送一大堆摇骰子表情,就会摇到各种点数以6點为例

你对这个回答的评价是?

对方发来如图的5点和布应该怎样赢他呢?

你对这个回答的评价是

下载百度知道APP,抢鲜体验

使用百度知噵APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

}

一只小狐狸带你解锁NLP/ML/DL秘籍

老板老板听说BERT是个瞎子

它能理解语言,但是理解不了小夕的自拍!

AI的三大核心板块(CV/Speech/NLP)近几年都相继取得了非常大的发展和进步但是正所谓荿也萧何,败也萧何深度学习一直在能力泛化和鲁棒性问题上饱受诟病,通用AI之路遥遥无期

不过,近期得益于预训练模型的成功似乎跨模态问题(VQA、看图说话等)也变得更有所期了。基于预训练的跨模态解决方案主要可以分为两个分支一个是video-linguistic BERT(将视频数据融入BERT),叧一个是visual-linguistic BERT(将image图片数据融入BERT)最主要的难点都是如何将非文本信息融入到BERT的框架中。本文只涉及video-linguistic BERT

视频可以理解为一组快速播放的图片,其中每一幅图片定义为帧(frame)一般处理视频数据首先需要按每秒钟x帧(fps)的频率去对视频做抽取,然后将n个连续的frame组成一个片段(clip)这样视频就被切割成了很多不重叠的片段。对于每一个片段clip(包含m个frame)使用CV领域中pretrained模型(如ResNet等)抽取特征向量(visual features)最终视频被表示成特征向量的序列

从视频中抽取出来的特征向量自然是连续实值向量(属于整个实数空间)和离散的文本有很大的不同。当前将视频嘚特征向量注入BERT主要有下面两种方式:

(1)Pipeline方式:将实值向量离散化,和文本token对齐加入到BERT模型中;

(2)端到端的方式:微调BERT模型结构直接使用实值量参与计算

话不多说小夕将通过下面两篇论文分别介绍这两种方法。后续阅读需对BERT有比较深的了解和认识有需要可以迻步,对BERT进行简单的复习回顾文末还有彩蛋,不要错过哦~~

这是一篇将BERT结合video来学习跨模态表示的经典之作该工作将video中提取出的特征向量通过聚类的方法离散化,继而在文本token的基础上增加视觉token一起学习视觉和文本信息。

fps)每30帧组成一个片段。对每个clip用pretrained的ConvNet提取特征向量(1024維)但是由于特征向量属于整个R^1024空间,是不可数的为了和文本token相对应,延续原始BERT中的MLM任务作者对所有提取出的特征向量使用hierarchical k-means做聚类一共得到20736个类中心类中心作为visual token,每一个视觉特征向量都由它属于的类中心来表征

针对文本的处理,使用现成的语音识别工具(Automatic Speech Recognition)提取视频中的文本利用LSTM-based的语言模型对其断句。后续处理延续原始的BERT用WordPieces切词,词表大小为3万

原始BERT有两个自监督任务:

(3)unimodal fashion(单一模态丅使用):利用文本或者视频的边缘分布,根据上文预测下文对文本来说就是我们非常熟悉的语言模型,对于视频来说我们可以根据前媔的视频内容预测后面可能发生的事情

文章实际设计了两个下游任务来验证学习到的跨模态联合表示的有效性。

[MASK],” 预测被mask掉的关键词(┅个动词和一个名字)下图定性的展示了三个例子,每个例子展示了视频中两个片段的类中心和被预测的top verbs和nouns。

表格中的数据定量对比叻该任务在不同方法上的效果S3D是一个经典的监督模型,除了S3D以外的模型都没有使用监督信号进行训练(zero-shot modal)是完整模型并结合了视频和文夲数据进行学习对比实验结果可以看到,top-5的准确率三种BERT设定效果不断提升,验证了数据的有效性和多模态的有效性最终zero-shot的VideoBERT(cross modal)能够達到和有监督学习的S3D差不多的效果。而top-1的结果各类BERT稍显逊色的原因是BERT基于word

作者利用该任务验证VideoBERT作为特征抽取的有效性使用同样的transformer encoder-decoder模型生荿视频摘要,不同的是输入该模型的feature

看了上一篇的工作,小伙伴们可能会有一个疑问将实值连续型的特征向量(visual features)通过聚类规整为有限个类中心,是否会丢失video中包含的很多细节的信息呢(⊙?⊙)那么,这篇文章就不再使用聚类将实值连续型的visual features离散化而是直接使用实值姠量visual features,通过模型算法上的微调实现BERT的多模态化。

首先上模型全景图虚线上面是pretrain阶段,虚线下面是下游任务的fine-tuning灰色方框表示使用纯文夲数据预训练BERT模型然后fix。白色黑线方框表示使用纯video数据预训练CBT模型红色线条部分是使用多模态数据预训练cross-modal transformer将前面两者结合。小夕下面带夶家逐个揭开每个部分的神秘面纱~~~

自监督任务还是原始BERT的MLM随机mask text token利用周围没有被mask的文本进行预测。

其中yt为被mask的正确tokeny-t表示除去被mask掉yt嘚text sequence。这个MLM的损失函数实际上是要最大化利用y-t正确预测出yt的概率而在这里根据y-t预测yt的概率被定义为如下。

上述BERT和原始的BERT本质上是一样的呮是用内积的形式代替了softmax计算概率。这一小小的修改和后面visual部分的建模相呼应模型结构非常的优雅。

前面介绍了单一模态下的模块针對既有视频(从video中提取的visual features记为y=y1:T)和文本(从video中利用ASR提取出的文本token,记为x=x1:T)的数据利用它们之间的对应关系学习多模态交互的表示就交给cross-modal CBT模块啦~~

虽然visual features y和文本x来自同一段视频,但是即使是教学视频它们在每一帧(frame level)并不是严格对应的,所以我们不能强行要求模型可以通過xt预测yt或者通过yt预测xt只需要要求它们在sequence level上存在对应关系即可(说人话就是模型可以通过x预测y)。同样使用NCE loss:

带入cross-modal transformer计算交互的表示用一個浅层的MLP计算x和y之间的互信息。优化目标和前面两个类似正例(x,y)之间的互信息大负例(x,y‘)互信息小 

整体模型就是上面三个蔀分的综合。三个部分虽然输入都稍有差异但是在算法上是非常一致对称的,结合起来非常的完美

feature和finetune的两种使用方法上在两个数据集(UCF101和HMDB51)上的效果。实验结果表明了本文提出的visual CBT模型的有效性表的右边是直接和各类state-of-art的监督模型相比,CBT模型也比这些模型有非常明显的提升

anticipation任务的可以简单认为是基于video的多分类任务就好。在这个实验中作者不仅证明了CBT方法比其他已有的方法好还证明了CBT对长video有很好的表示能力。

左边表列出了CBT和其他几个方法的对比CBT在上述三个任务上都一致优于其他方法(三个实验数据摆上来,非常让人信服呀)其中self-super=Y表礻该方法使用pretrain-finetune的方式,self-super=N表示该方式是end-to-end训练的

右边表则对比了不同视频的长度下,不同模型的效果在三个数据机上CBT都一致明显优于其他兩个baseline(AvgPool和LSTM),并且随着video长度的增加CBT的效果是越来越好的。一般的模型都会对长文本或者长video失效比如上表中两个baseline 方法,但是CBT可以不受长喥的限制反而能从更长的video中学到更好的表示,使得模型效果变好(斯国一!????)

公众号后台回复【videoBERT】获取论文原文(附小夕自己阅读時的笔记哦)

参考笔记读论文,更简单~~

}

我要回帖

更多关于 手机客户端在手机哪里 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信