什么情况下填tave教程什么情况下填tas

在电脑上使用模拟器,在不改变游戏内核的情况下,使用工具辅助操作的游戏方式为?TAS TAR TSR_百度知道TassandarHei!Brother Sharp is Watching You!
非盈利组织定制码农
随手翻到的帖子... 66666
很多传统行业都想乘上互联网的东风,说句实在话,现在已经有点晚的了。 这些传统行…
还要把这个问题当成是对自己过往、现在人生的一次思考,布置作业呢。 想打广告就打…
&p&&b&社区类产品早期成功的关键不在于运营,更重要的是推广,引流,这一步没做好,运营的再好也是徒劳;整个产品的是否成功在于是否把握需求,没有需求或者市场原因(有了行业龙头),都很难成功。&/b&&/p&&br&&p&陌陌、百度贴吧、豆瓣小组早期成功的关键在于流量;穷游、蘑菇街、美丽说、辣妈帮成功的关键在于把握需求;小米社区、魅族论坛目的明确,功能属性太强,不能单纯的看做社区。默认您属于没有流量的情况,那么可能早期的关键是推广不是运营。&/p&&br&&p&运营层面的具体实操方式:&/p&&br&&p&&b&1、配合推广做好内容,类似于landing page&/b&,知道用户为什么而来、因什么而来,针对性的补充内容,让用户多停留几秒,你就多几分把握;&/p&&br&&p&&b&2&/b&、&b&广邀朋友,没事的时候请大家帮忙发个帖,补充一下内容,&/b&让推广引来的用户可以有内容可看。如果您单纯的想要让新来的用户在不看内容的情况下直接发帖的话,几乎是奢望;&/p&&br&&p&&b&3、运营人员多注册小号&/b&,&b&如果有用户回帖或者发帖,立即跟进,热情回应&/b&,让用户在你的社区感受到交流、分享的快乐;&/p&&br&&p&&b&4、首次引导一定要做好,&/b&鼓励用户发帖、回帖尝试(提醒语、提醒方式要注意,不要引起反感);&/p&&br&&p&&b&5、设立等级、权限机制,&/b&让用户有个短期可以在社区内实现的小目标,例如:只有三级后才可以发帖,不注册、登录无法发帖、回帖等等;&/p&&br&&p&&b&6、给与用户正向回应,&/b&用户发帖可以给积分、升级、相应权限等等;&/p&&br&&p&&b&7、建立多个回应维度,不要仅有回帖一个回应维度,这个门槛过高,杜绝了绝大多数用户,&/b&可以设置阅读数、点赞、送花、表态度(参看卢松松的博客)等等,降低回应的成本更易让用户表态,相应数据由你掌控。知乎上过千的赞同可能评论只有几个;&/p&&br&&p&&b&8、建立完善的提醒机制,这个非常重要,&/b&切身之痛,如果没有完善的提醒机制,让用户没有及时收到正向的回应,会令大批用户流失;&/p&&br&&p&&b&9、要有相应的惩罚机制,&/b&这和上面的权限、积分、等级相结合,不能让个别用户破坏社区氛围;&/p&&br&&p&&b&10、有重点的培养核心用户&/b&,不要奢望每位用户都发帖、都成为活跃用户,树立一批正面典型,有影响力的用户即可。让用户影响用户;&/p&&br&&p&&b&11、运营参与度高的话题,&/b&如猫扑、天涯举办的各种网上活动,新浪微博的话题运营,小的社区可能举办这样的活动就需要有相应的用户资源,运营的时候有目的的积累;&/p&&br&&p&&b&12、不要把自己当成社区的管理者、维护者,把自己当成服务人员。&/b&心态方正,这点很重要;&/p&&br&&p&&b&13、做好延伸阅读,让用户在阅读帖子的时候有一个其他的内容入口。&/b&这点并不适用于所有社区类app,视产品情况而定。&/p&&br&&p&推荐猫扑运营总监的两篇文章:&a href=&///?target=http%3A///p/213729.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&那些年,穷酸的运营们:猫扑产品总监聊零市场预算如何做活动&i class=&icon-external&&&/i&&/a&,&a href=&///?target=http%3A///p/212689.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&那些年,运营犯过的错:猫扑产品总监聊用户运营环节的6个易犯错误&i class=&icon-external&&&/i&&/a&&/p&&br&&p&回到起点,拿张纸和笔,列出如下问题:&/p&&br&&p&1、目标用户是谁?——明确运营的目标,分析群体特征,依照对方可以接受的方式运营,不要犯群体忌讳;&/p&&br&&p&2、因何而来?——明确目标用户的目的,有准备的呈现内容;&/p&&br&&p&3、发帖、回帖用户是谁?——为前期运营找突破口,分析这个群体的特征:年龄、网龄、话题等等,提供有针对性的、参与度高的内容;&/p&&br&&p&4、因何发帖?——两种情况:用户而来有目的、有明确需求发帖,如知乎提问求回答;社区提供理由,发帖可以升级、赚积分等等 ;&/p&&br&&p&&b&5、运营人员在整个环节扮演什么角色?——把自己解放出来看整个全局,先不要局限在运营上面和具体事务上面,深刻理解这个产品的目标、走向,运营只不过是实现目标的一个路径,看清全局更加有利于你的定位,说不定不只有运营这一条路可以实现最终目标(这个适用于所有工作,个人经验)。&/b&&/p&&br&&p&&b&还有很多值得思考的细节问题,建议你把所有的工作全部分解,具体到执行细节,列出实现目标的所有问题一一回答,这就相当于工作的总纲了。局限于具体任务后难免忘了,写出来也可以时常查看、思考,亲身实践非常有用。&/b&&/p&
社区类产品早期成功的关键不在于运营,更重要的是推广,引流,这一步没做好,运营的再好也是徒劳;整个产品的是否成功在于是否把握需求,没有需求或者市场原因(有了行业龙头),都很难成功。 陌陌、百度贴吧、豆瓣小组早期成功的关键在于流量;穷游、蘑菇…
多年的媳妇熬成了婆
多年的媳妇熬成了婆
谢邀, 其实这个问题也是我近段时间一直在思考的问题. 昨天刚在组里做了个ECCV'16 Recap, 整理一下思路, 来尝试抛砖引玉.&br&&br&我的观点是:&b&计算机视觉在人工智能和深度学习的大背景下方兴未艾&/b&.&br&&br&这里进入瓶颈期的,可能是一些计算机视觉的经典问题,如物体识别和检测(人脸,行人,物体,场景 etc).但是如果能死磕这些经典问题,往往能带来质的突破,比如说对于ImageNet物体识别GoogLeNet之后,大部分人应该都不会想到还有ResNet这种牛逼网络的出现:).计算机视觉这个领域本身,我觉得是正在蓬勃发展, 经典问题得到了更好的解决, 新的问题也不断涌现.&br&&br&如果把Deep Learning进入CV的2012年作为新时代的开始,我自己是从旧时代来的人.对于从旧时代过来的人,现在无疑是CV以及AI最好的时代.我自己当年是看着Dahua Lin的blog,以及 &a data-hash=&b37bb83aa96a5bc05205& href=&///people/b37bb83aa96a5bc05205& class=&member_mention& data-editable=&true& data-title=&@Filestorm& data-hovercard=&p$b$b37bb83aa96a5bc05205&&@Filestorm&/a&和 &a data-hash=&be0d3bb133ad0151eefd188& href=&///people/be0d3bb133ad0151eefd188& class=&member_mention& data-editable=&true& data-title=&@田渊栋& data-hovercard=&p$b$be0d3bb133ad0151eefd188&&@田渊栋&/a&在SJTU饮水思源AI版的论战进入CV和AI研究圈子的(这里特别感谢三位师兄当年的分享),那时候大家讨论的东西都是graphical model, sparse coding, bag of SIFT, spatial pyramid 啥的,也没有工作抢着放arXiv的传统,也没有满大街的open source libraries. 每年CVPR接收的论文到现在的1/2都不到. 每次开会前proceeding放出来的时候都会沐浴更衣把大部分感兴趣的论文扫一遍.&br&&br&现在的CV和AI研究其实是变得越来越扁平快了.随手可得的open source libraries和pretrained models, 互联网上各种分享的学习资料和经, 便宜的GPU计算资源, 以及百花齐放的研究方向,都使得新入行的生猛年轻人能很快倒腾出新东西. 发表CVPR, NIPS, AAAI等顶会文章也不再是难事. 论文数量和研究方向也是繁多. 已经很难follow. &br&&br&现在很多时候, 我觉得做CV的研究更像是在拼工程能力, 而不是拼insight和积累了. 后来的人也许并没有多少动力和精力去学习和了解之前的经典. 这也是我担忧的地方. 但时代造人, 这些也是无可厚非的, 毕竟我们希望更多有闯劲的年轻人进入CV和AI圈子, 一起大炼钢:). 争先放arXiv, 开源code等无疑加速了研究的迭代速度, 有更大的可能性激发出新的研究方向和成果. 大公司们(Google, Facebook, Amazon)以及诸多startup们, 也都虎视眈眈地渴望着更多更好的研究工作出现.&br&&br&&br&另外, 如果硬要我说几个CV目前有肉容易啃的方向, 那我就大致提提(注:这些方向大致都偏纯学术,有什么商业价值我并不是怎么关心):&br&&br&&b&1. Robotics (or Simulation Graphics)+Vision&/b&. Robotics那边的人普遍比较保守, 更执着于传统template matching之类的传统方法. 这里有个段子, 我们MIT机械工程系robotics方向的大牛教授John Leonard很久以前评论Computer vision, 直接说你们'CVPR'里面的各种论文, 就是Computer Vision and Precision Recall. 什么意思大家应该能理解:). 不过在deep learning开始真正work的时代, 他这句话应该不太适用了(笑). 回到正题, Robitics本身是块非常大的饼, 很多问题和方法都可以用deep learning (CNN + Deep Reinforcement learning) 重新解决. 偏Robotics的话, 大家可以留意一下Berkeley的大红人Sergey Levine最近的工作(&a href=&///?target=https%3A//people.eecs.berkeley.edu/%7Esvlevine/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sergey Levine&i class=&icon-external&&&/i&&/a&). 偏Vision的话,可以看看CMU的大红人Abinav Gupta的ECCV paper Curious Robot (&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&0v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&). Jianxiong Xiao之前主打的3D deep learning (&a href=&///?target=http%3A//robots.princeton.edu/talks/2016_MIT/RobotPerception.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&robots.princeton.edu/ta&/span&&span class=&invisible&&lks/2016_MIT/RobotPerception.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&)也可以算在这个里面,他们团队和MIT团队最近搞了个Amazon Pick challenge, 模型和方法还有点意思(&a href=&///?target=http%3A//www.cs.princeton.edu/%7Eandyz/apc2016& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&MIT-Princeton Vision Dataset for the APC 2016&i class=&icon-external&&&/i&&/a&). 不过Xiao已经下海经商, 不知道还会不会actively publish. 现在各大公司和startup猛搞的autonomous drive, 也可以放在这个方向之下.&br&&br&最近我还留意到一个非常有潜力的方向Simulation+Vision. 我觉得有两个具体方向,一个是利用graphics里面的rendering仿真技术,生成大量数据.这些数据因为是生成出来的,任何ground-truth都有,而且要多少有多少, 是获取训练数据的一个捷径.CVPR'16有篇做synthetic image dataset for semantic segmentation of urban scene(&a href=&///?target=http%3A//www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Ros_The_SYNTHIA_Dataset_CVPR_2016_paper.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cv-foundation.org/opena&/span&&span class=&invisible&&ccess/content_cvpr_2016/papers/Ros_The_SYNTHIA_Dataset_CVPR_2016_paper.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&).另外一个方向是结合graphics中的simulation,利用deep reinforcement learning等active learning的算法可以无监督/弱监督训练出agent model,这里就不仅限于纯CV了.DeepMind和OpenAI在猛搞这个方向.偏vision的话大家可以参考下Allen Institute这篇(&a href=&///?target=https%3A//arxiv.org/pdf/v1.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&3v1.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&).&br&&br&&b&2. Generative visual models.&/b& 目前大部分的模型都是discrminative model, 给定input, 然后识别label. 但这个故事的另外一半其实是generative model, 给定label, 然后生成图片. generative models是一个很有潜力的大方向. 这里的最新进展一方面是基于GAN (&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&4v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&) 所带来的一种训练图片生成的新思路, 也包括一些基于传统image model, 如MRF和CRF在deep learning的新思路下面进行重新理解. DeepMind的这篇PixelCNN(&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&8v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&), 最近Zhirong和Dahua的挺不错的ECCV论文(&a href=&///?target=http%3A//dahua.me/papers/dhlin_deepmrf.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&dahua.me/papers/dhlin_d&/span&&span class=&invisible&&eepmrf.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&). 个人觉得Varionational Autoencoder也是个蛮漂亮的模型, 这里有篇关于VAE的最新的tutorial还不错(&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&8v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&). 以后deep learning跟bayesian model的结合也会是个颇具潜力的方向.&br&&br&3. &b&Multimedia Computer Vision.&/b& 其实人的感知系统本身就是多模态的, 视频和声音共同结合.Video analysis不再局限于action recognition, 对内容本身有更深的理解. 比如说最近的MoiveQA (&a href=&///?target=http%3A//movieqa.cs.toronto.edu/home/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&MovieQA&i class=&icon-external&&&/i&&/a&), Visual Anticipation prediction (&a href=&///?target=http%3A//web.mit.edu/vondrick/prediction.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&web.mit.edu/vondrick/pr&/span&&span class=&invisible&&ediction.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&). 另外, sound也是一个大家普遍忽略掉的一个东西. 大家可以看看我们组Andrew Owen的两个蛮有意思的工作ECCV'16 Ambient Sound Provides Supervision for Visual Learning (&a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&7.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&), CVPR'16 Visually Indicated Sounds (&a href=&///?target=http%3A//vis.csail.mit.edu/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Visually Indicated Sounds&i class=&icon-external&&&/i&&/a&). 多模态来研究vision是个大趋势.
谢邀, 其实这个问题也是我近段时间一直在思考的问题. 昨天刚在组里做了个ECCV'16 Recap, 整理一下思路, 来尝试抛砖引玉. 我的观点是:计算机视觉在人工智能和深度学习的大背景下方兴未艾. 这里进入瓶颈期的,可能是一些计算机视觉的经典问题,如物体识别…
谢邀, 其实这个问题也是我近段时间一直在思考的问题. 昨天刚在组里做了个ECCV'16 Recap, 整理一下思路, 来尝试抛砖引玉.&br&&br&我的观点是:&b&计算机视觉在人工智能和深度学习的大背景下方兴未艾&/b&.&br&&br&这里进入瓶颈期的,可能是一些计算机视觉的经典问题,如物体识别和检测(人脸,行人,物体,场景 etc).但是如果能死磕这些经典问题,往往能带来质的突破,比如说对于ImageNet物体识别GoogLeNet之后,大部分人应该都不会想到还有ResNet这种牛逼网络的出现:).计算机视觉这个领域本身,我觉得是正在蓬勃发展, 经典问题得到了更好的解决, 新的问题也不断涌现.&br&&br&如果把Deep Learning进入CV的2012年作为新时代的开始,我自己是从旧时代来的人.对于从旧时代过来的人,现在无疑是CV以及AI最好的时代.我自己当年是看着Dahua Lin的blog,以及 &a data-hash=&b37bb83aa96a5bc05205& href=&///people/b37bb83aa96a5bc05205& class=&member_mention& data-editable=&true& data-title=&@Filestorm& data-hovercard=&p$b$b37bb83aa96a5bc05205&&@Filestorm&/a&和 &a data-hash=&be0d3bb133ad0151eefd188& href=&///people/be0d3bb133ad0151eefd188& class=&member_mention& data-editable=&true& data-title=&@田渊栋& data-hovercard=&p$b$be0d3bb133ad0151eefd188&&@田渊栋&/a&在SJTU饮水思源AI版的论战进入CV和AI研究圈子的(这里特别感谢三位师兄当年的分享),那时候大家讨论的东西都是graphical model, sparse coding, bag of SIFT, spatial pyramid 啥的,也没有工作抢着放arXiv的传统,也没有满大街的open source libraries. 每年CVPR接收的论文到现在的1/2都不到. 每次开会前proceeding放出来的时候都会沐浴更衣把大部分感兴趣的论文扫一遍.&br&&br&现在的CV和AI研究其实是变得越来越扁平快了.随手可得的open source libraries和pretrained models, 互联网上各种分享的学习资料和经, 便宜的GPU计算资源, 以及百花齐放的研究方向,都使得新入行的生猛年轻人能很快倒腾出新东西. 发表CVPR, NIPS, AAAI等顶会文章也不再是难事. 论文数量和研究方向也是繁多. 已经很难follow. &br&&br&现在很多时候, 我觉得做CV的研究更像是在拼工程能力, 而不是拼insight和积累了. 后来的人也许并没有多少动力和精力去学习和了解之前的经典. 这也是我担忧的地方. 但时代造人, 这些也是无可厚非的, 毕竟我们希望更多有闯劲的年轻人进入CV和AI圈子, 一起大炼钢:). 争先放arXiv, 开源code等无疑加速了研究的迭代速度, 有更大的可能性激发出新的研究方向和成果. 大公司们(Google, Facebook, Amazon)以及诸多startup们, 也都虎视眈眈地渴望着更多更好的研究工作出现.&br&&br&&br&另外, 如果硬要我说几个CV目前有肉容易啃的方向, 那我就大致提提(注:这些方向大致都偏纯学术,有什么商业价值我并不是怎么关心):&br&&br&&b&1. Robotics (or Simulation Graphics)+Vision&/b&. Robotics那边的人普遍比较保守, 更执着于传统template matching之类的传统方法. 这里有个段子, 我们MIT机械工程系robotics方向的大牛教授John Leonard很久以前评论Computer vision, 直接说你们'CVPR'里面的各种论文, 就是Computer Vision and Precision Recall. 什么意思大家应该能理解:). 不过在deep learning开始真正work的时代, 他这句话应该不太适用了(笑). 回到正题, Robitics本身是块非常大的饼, 很多问题和方法都可以用deep learning (CNN + Deep Reinforcement learning) 重新解决. 偏Robotics的话, 大家可以留意一下Berkeley的大红人Sergey Levine最近的工作(&a href=&///?target=https%3A//people.eecs.berkeley.edu/%7Esvlevine/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sergey Levine&i class=&icon-external&&&/i&&/a&). 偏Vision的话,可以看看CMU的大红人Abinav Gupta的ECCV paper Curious Robot (&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&0v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&). Jianxiong Xiao之前主打的3D deep learning (&a href=&///?target=http%3A//robots.princeton.edu/talks/2016_MIT/RobotPerception.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&robots.princeton.edu/ta&/span&&span class=&invisible&&lks/2016_MIT/RobotPerception.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&)也可以算在这个里面,他们团队和MIT团队最近搞了个Amazon Pick challenge, 模型和方法还有点意思(&a href=&///?target=http%3A//www.cs.princeton.edu/%7Eandyz/apc2016& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&MIT-Princeton Vision Dataset for the APC 2016&i class=&icon-external&&&/i&&/a&). 不过Xiao已经下海经商, 不知道还会不会actively publish. 现在各大公司和startup猛搞的autonomous drive, 也可以放在这个方向之下.&br&&br&最近我还留意到一个非常有潜力的方向Simulation+Vision. 我觉得有两个具体方向,一个是利用graphics里面的rendering仿真技术,生成大量数据.这些数据因为是生成出来的,任何ground-truth都有,而且要多少有多少, 是获取训练数据的一个捷径.CVPR'16有篇做synthetic image dataset for semantic segmentation of urban scene(&a href=&///?target=http%3A//www.cv-foundation.org/openaccess/content_cvpr_2016/papers/Ros_The_SYNTHIA_Dataset_CVPR_2016_paper.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&cv-foundation.org/opena&/span&&span class=&invisible&&ccess/content_cvpr_2016/papers/Ros_The_SYNTHIA_Dataset_CVPR_2016_paper.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&).另外一个方向是结合graphics中的simulation,利用deep reinforcement learning等active learning的算法可以无监督/弱监督训练出agent model,这里就不仅限于纯CV了.DeepMind和OpenAI在猛搞这个方向.偏vision的话大家可以参考下Allen Institute这篇(&a href=&///?target=https%3A//arxiv.org/pdf/v1.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&3v1.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&).&br&&br&&b&2. Generative visual models.&/b& 目前大部分的模型都是discrminative model, 给定input, 然后识别label. 但这个故事的另外一半其实是generative model, 给定label, 然后生成图片. generative models是一个很有潜力的大方向. 这里的最新进展一方面是基于GAN (&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&4v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&) 所带来的一种训练图片生成的新思路, 也包括一些基于传统image model, 如MRF和CRF在deep learning的新思路下面进行重新理解. DeepMind的这篇PixelCNN(&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&8v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&), 最近Zhirong和Dahua的挺不错的ECCV论文(&a href=&///?target=http%3A//dahua.me/papers/dhlin_deepmrf.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&dahua.me/papers/dhlin_d&/span&&span class=&invisible&&eepmrf.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&). 个人觉得Varionational Autoencoder也是个蛮漂亮的模型, 这里有篇关于VAE的最新的tutorial还不错(&a href=&///?target=https%3A//arxiv.org/pdf/v2.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&8v2.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&). 以后deep learning跟bayesian model的结合也会是个颇具潜力的方向.&br&&br&3. &b&Multimedia Computer Vision.&/b& 其实人的感知系统本身就是多模态的, 视频和声音共同结合.Video analysis不再局限于action recognition, 对内容本身有更深的理解. 比如说最近的MoiveQA (&a href=&///?target=http%3A//movieqa.cs.toronto.edu/home/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&MovieQA&i class=&icon-external&&&/i&&/a&), Visual Anticipation prediction (&a href=&///?target=http%3A//web.mit.edu/vondrick/prediction.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&web.mit.edu/vondrick/pr&/span&&span class=&invisible&&ediction.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&). 另外, sound也是一个大家普遍忽略掉的一个东西. 大家可以看看我们组Andrew Owen的两个蛮有意思的工作ECCV'16 Ambient Sound Provides Supervision for Visual Learning (&a href=&///?target=https%3A//arxiv.org/pdf/.pdf& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/pdf/&/span&&span class=&invisible&&7.pdf&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&), CVPR'16 Visually Indicated Sounds (&a href=&///?target=http%3A//vis.csail.mit.edu/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Visually Indicated Sounds&i class=&icon-external&&&/i&&/a&). 多模态来研究vision是个大趋势.
谢邀, 其实这个问题也是我近段时间一直在思考的问题. 昨天刚在组里做了个ECCV'16 Recap, 整理一下思路, 来尝试抛砖引玉. 我的观点是:计算机视觉在人工智能和深度学习的大背景下方兴未艾. 这里进入瓶颈期的,可能是一些计算机视觉的经典问题,如物体识别…
先纠正你一个观点:&br&&br&知乎和百度知道虽然形式看似一样,都是采取问答形式,但是本质是不一样的。百度知道是“工具”属性,产品逻辑是:遇到问题→百度搜索→找到答案→离开,整个产品是协助搜索引擎更好的完成“链接人和信息”的任务。&br&&br&知乎现在是“内容消费社区”,少量用户产生“内容(提问、回答)”,绝大多数用户消费。百度知道你很难“逛起来”,都是找到问题答案就走,但是在知乎搭建起内容发现关系链后就很容易“逛起来”,没有明确问题的时候也能消费内容。&br&&br&所以虽然形式一样,但这两个却是完全不同的产品形态和定位。&br&&br&延伸来讲,其实知乎也想达到你说的“让合适的人回答合适的问题,以便产生更多更优质的内容”现象,不过根本目的还是在“制造内容”,而不是“解决切实问题(百度知道想要解决切实问题)”。&br&&br&但是知乎为什么现在还无法解决这个现象呢?&br&&br&&blockquote&一是任何社区都符合“二八”,甚至是“一九”定律,就是社区“二或一的人制造内容,八或九的人消费内容”,内容贡献者的稀缺,导致问题、答案都无法持续增加;&br&&br&二是知乎信息的流通机制导致:百分之九十的曝光量在中心点(大V),而这些中心点根本没有能力和动机覆盖所有问题。这其实还是“fowlle型社区”本质导致的现象:流量分发点和问题总数严重失衡,导致所有流量集中在头部,百分之十的内容集中百分之九十的关注;&br&&br&三是知乎的定位是“内容消费型社区”,所以“解决这种现象”的优先级就会无限降低,导致现在产品层面也没有大的改进来更好的发现可回答问题;&br&&br&四是知乎现在的发现问题机制(冷门问题主要是邀请)匹配度很差,这个主要的解决手段也没有发挥好的效果(大家想一想以前的知乎搜索就能明白知乎的智能算法这块为何如此之烂了);&br&&br&五是知乎的激励手段太过单一(本质上还是产品机制的问题):知乎的激励手段是“赞同、感谢、关注”,回答冷门问题(比如你提的问题)都不会得到激励反馈,也就少有人回答。&/blockquote&&br&懂了吧。知乎和百度知道是两者完全不同的产品,肯定有截然不同的本质,并且这个问题或者是“对接问题给合适的人”现象知乎也永远达不到。&br&&br&PS:当成一次产品比较来看这个问题,你打开&a href=&///?target=https%3A///& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&/&/span&&span class=&invisible&&&/span&&i class=&icon-external&&&/i&&/a&和&a href=&/& class=&internal&&知乎 - 与世界分享你的知识、经验和见解&/a&首页就会明显看出区别。百度知道首页中心部分会给“待解决问题”曝光,而知乎你可能永远无法找到“待解决问题(发现层级是三级)”。&br&&br&如果你再打开百度知道app和知乎app对比,这个现象就更加明显:百度知道给待解决问题是一个子栏目,而知乎全是内容消费的设置。
先纠正你一个观点: 知乎和百度知道虽然形式看似一样,都是采取问答形式,但是本质是不一样的。百度知道是“工具”属性,产品逻辑是:遇到问题→百度搜索→找到答案→离开,整个产品是协助搜索引擎更好的完成“链接人和信息”的任务。 知乎现在是“内容消费…
&b&以下所说不要转载、不要分享,最好也不要找我说的资源站。&/b&&br&&br&去年我认识一位做电影资源站的个人站长,主要是做美国、韩国、日本等外国的电影(也有中国的资源),格式以蓝光为主,在他选的领域内流量排行第一,各个关键词的搜索结果也是第一,据他说高峰时期过十万uv。它的影响力没有BT天堂大,不过在对观影有高要求的人群中应该远超BT天堂。&br&&br&只要研究过流量价格的都应该知道“十万uv”在个人站长圈都属于顶层,但按他的话说“根本不敢做大,想做的话翻几倍都不是问题”。盈利模式是开百度网盟(以前Google还在的时候也开Google网盟),也就意味着“流量越高盈利也就越高”。&br&&br&那我就很疑惑:你为啥能优化网站获得更高的流量赚更多的钱你不做?&br&&br&“不敢冒头,这事就是游走在法律边缘,你做的小了,版权方不值得找你麻烦,你做的大被版权方或其他人(比如竞争对手)告了肯定违法制裁”。&br&&br&在资源站(特指盗版)的个人站长圈,赚钱的多少取决于你的胆量。&br&&br&然后我恭维了一句:你流量这么大,从百度网盟每天盈利应该也不少。&br&&br&“电影网站流量不值钱,赚不了多少钱”。&br&&br&资源站的流量大多都不值钱,电子书资源站是个例外:网页游戏行业没起来的时候,电子书网站也都是垃圾流量,页游起来后,电子书的流量才直线上升,所以电子书资源站很多都团队化经营。现在版权相比以前严厉许多,也看到很多原创作者维权的事。电影资源站之所以竞争不是太激烈就因为这个领域流量价值太低。&br&&br&我又疑惑:你有那么多高清资源,为啥不改变商业模式靠卖会员或者卖电影赚钱?&br&&br&“你做电影站本来就是侵权,做的小没人搭理你,你要是敢做这个都够判刑了”。&br&&br&我:“也就是说你可以发展代理,让代理卖,你再让他以别的名目给你钱,这样不就行了”?&br&&br&“不敢,一窝端的事,你这么简单的手法很容易查出来,和你直接卖有什么区别”。&br&&br&我:“那你可以找相关的大客户啊,比如传媒公司、电影宣传方进行内容合作或者流量支持,直接绕过百度网盟找大客户收费”。&br&&br&“正规公司不敢跟你合作,一是我是个人,没有企业质资无法签订合同,二是不合法,正规公司不敢合作。暴风以前找过我说给我服务器资源让我把电影资源都放到他们的服务器上,节省我的成本,后来也没成”。&br&&br&我:“那你现在做的事没有发展性啊,照你这么说已经到顶了”。&br&&br&“对啊,我现在在弄别的站,争取把别的站流量弄上来然后卖广告赚钱。你不是有渠道?你卖电影站的广告位咱们分成也行啊”。&br&&br&对话并不是原语言,就是这个意思。这个朋友真的是名副其实的个人站长:UI、内容、优化等全部自己一个人完成。后来他看到移动互联网的改革想要把流量转到微信公众号上,效果不大:这可能是资源站的通病。&br&&br&看了上面的对话,我想大家应该懂BT天堂的袁站长为啥只赚了90万了,这应该是开百度网盟的收益,就是不知道是否刨除了服务器等成本。&br&&br&另外我补充个观点:美化网站作用可以,美化个人站长就不必了,只要是玩了一段时间的,大家都知道被抓的后果,敢做的肯定不是为了世界和平,是为了赚钱。
以下所说不要转载、不要分享,最好也不要找我说的资源站。 去年我认识一位做电影资源站的个人站长,主要是做美国、韩国、日本等外国的电影(也有中国的资源),格式以蓝光为主,在他选的领域内流量排行第一,各个关键词的搜索结果也是第一,据他说高峰时期…
&img src=&/v2-63ee34b22a27d6ebab4ca_b.jpg& data-rawwidth=&0& data-rawheight=&0& class=&content_image& width=&0&&由于前段时间公司发展较好(就是各项数据都相较以前有较大提升并且拿了新一轮融资,有钱了),然后我就想为自己的部门(运营市场部)寻求1~2名内容运营和新媒体运营方面的人才。&p&招聘的时候自然要显得领域、公司、创始人、主管牛逼一点,让大家觉得来了就能发财致富奔上土豪路。但我又不能夸大其词,毕竟我个人在网上说话从来都是实事求是。因此我还是无感情地罗列一下我们的亮点:&/p&&p&1、互联网人都知道现下是资本寒冬,倒闭、裁员的新闻层出不穷,但我司发展良好(就是现金流好),处于快速上升期,行业大背景和我司小情况正好相反;&/p&&p&2、我司产品属于企业SAAS服务领域,这是资本寒冬下少有坚挺还能发展的新兴领域,并且市场格局未定,我司还有冲进第一阵营的决心和时机;&/p&&p&3、经过薪酬改革后,我司的薪资水准在互联网企业属于中上(实事求是以前就是中下水平,虽然以往招聘的时候也说中上23333);&/p&&p&4、我司团队现在才逐步正规化,依然有几个重要岗位没有合适人选,比如我部门的副职;&/p&&p&5、我在公司属于核心成员,能争取更多的公司资源:比如你想花钱买实践经验,我都可以支持你。并且我极其放权,你要是有啥想法,如果不是我以前趟过的坑,我百分百支持你(我信奉的是实践出真经验,并且鼓励花钱买成长时间);&/p&&p&6、就职位专业水平而言,我不敢说属于顶尖,但是也不比你在网上看到的专业人士差(属于行业中等吧)。我从不在网上分享工作中的专业知识,是因为多数时候轮不到分享时便要给下属讲几遍或者自己写工作总结,再来回复制也没意思;&/p&&p&7、我个人极其讨厌办公室政治,另外我司也还小,团队又年轻,都非常好相处;&/p&&p&8、我司有餐补、学习费、定期团队等福利,并且我从不要求加班(不过我得申明一个情况:我个人一般是十点后离开公司,技术产品也大多和我相同点离开,但我司真的不要求加班,你要是走的晚,我还会劝你早点走或者大家一起打局游戏啥的)!&/p&&p&以上情况全部真实描述,如果您还有疑问我再补充。&/p&&p&另外我不是忘了介绍公司、产品,而是我从不在个人社交网络中提自己的职业信息,您知道我司小有名气、有一定发展前景、所处赛道有潜力、能给你钱、发展空间、相关经验即可,绝不带一点夸张。&/p&&p&内容运营工作内容:&/p&&p&1、围绕品牌、产品、用户等维度制作专业内容;&/p&&p&2、为策划、活动提供内容支撑并参与创意探讨;&/p&&p&3、把控公司对外所有内容,统一形象;&/p&&p&4、参与内容分发以便了解内容制作需求;&/p&&p&我对内容运营的要求是:把公司有价值的信息转化为内容然后和其他同事配合传递给受众,从而树立公司品牌、形象。在这个内容为王的大背景下,我希望内容运营能理解公司需求并制作成有传播力的内容,不是硬广或者软文,这种形式略低级。&/p&&p&我衡量的标准有两个:有价值(无论是对公司还是对目标受众)、有传播力。非要举个例子就类似于Growing io的张溪梦老师在知乎的分享,符合我的要求。&/p&&p&职位要求:&/p&&p&1、在知乎重点大学多如狗的情况下,我一个普通院校的实在不好意思要求别人的学历,本科以上即可;&/p&&p&2、最好是内容出身,媒体相关职业、内容网站编辑等优先,1年以上工作经验;&/p&&p&3、有网络传播、营销相关认知,最好是知乎、简书、微博等社交媒体深度用户(投递简历的时候请务必附上您知乎、简书、微博等社交媒体的个人主页,以免浪费您的时间。);&/p&&br&4、会PS,有一定创意能力;&br&&br&5、当然,如果您有优秀文字作品,以上条件统统作废。&br&&p&关于薪资部分在知乎有点难定,我给HR发的标准是6k~10K,但我偏爱知乎,薪资部分就暂不设定,我们在面谈中再具体商议。如果您符合我的要求,我自然能给您满意的薪酬。&/p&&p&我的邮箱是,真诚希望能和您成为同事,一起赚钱吧。&/p&&p&PS:我没有写新媒体运营的具体信息,如您有意都可以发到我的邮箱,两个职位我得分时间段招。投递先希望也能读读我写的职场新人能力要求&a href=&/question//answer/& class=&internal&&什么样的应届生值得招? - henu 的回答&/a&,这属于我个人的偏好。&/p&&br&&p&经知友提醒,补充工作地点:北京。&/p&
由于前段时间公司发展较好(就是各项数据都相较以前有较大提升并且拿了新一轮融资,有钱了),然后我就想为自己的部门(运营市场部)寻求1~2名内容运营和新媒体运营方面的人才。招聘的时候自然要显得领域、公司、创始人、主管牛逼一点,让大家觉得来了就能…
今年的大选我已经受够了。2016年对我个人和对我周围的朋友都是很糟糕的一年,其中这个糟心的大选贡献了50%的负能量。&br&就回答这个问题来说,问的是是不是pro-trump,那么我的答案是我anti-trump。放心,我接下去有心情会去回答我是不是anti-Hillary,我的答案是我很多地方照样anti-Hillary。&br&我反对他的理由总体说来有这么几个:给一类人贴负面标签,用人性中的恐惧和不解来煽动矛盾,而非用理解和交流的态度去正面鼓励不同族群之间的了解(&b&非法移民&/b&);政策解释不熟(具体可以看我之前回答关于&b&H1b&/b&政策解释的问题——他在短短的几个月时间manipulate了好几次);直爽和没脑子有一条分界线,而川普已经在这条分界线的没脑子一侧呆了太久了。&br&至于支持者格调不够高,WASP太多,这种都不入流的黑暗的角度,我不去讨论。&br&&ol&&li&关于非法移民:非法移民这个问题我在私下里跟很多国内朋友或者是对这个群体不是特别了解多的解释过了很多次。美国对于非法移民的大讨论原则上还是要回到宪法框架和州权-联邦权力分配体系下面去考虑这个问题。现在知乎上有一种思维,认为非法移民的重点在于&b&非法&/b&,这点是没有错;问题在美国也有一种广泛的理解在于非法移民的重点在于&b&移民。&/b&独立宣言里面说过,“All men are created equal”(当然了写的时候可能没考虑female,native american,African,但是现在已经不是那个年代了,要进步点看问题)&b&。&/b&我说了那么多废话,重点在于川普的驱逐非法移民&b&无论是在宪法上还是在联邦法-州法的二元讨论下都没有可以实行的空间&/b&。考虑到美国特殊的移民局-警察二元分类,如果要彻查20M非法移民,将会造成这么几个结果:a)联邦政府的施政重点和财务分配会全部转移到甄别和驱逐非法移民上,b)新时代的猎巫将会开始,并且考虑到政策实现的滞后性,不知道会造成多少乌龙和践踏民权的可能。要知道5%的白人和20%的黑人是没有ID的;而出生纸谁会天天没事随身携带?在过去几十年内,美国对于非法移民的政策&b&早已经从一揽子遣返&/b&变成了&b&有条件的甄别有案底的非法移民并选择性遣返&/b&。中国具有强大专政能力的政府都没法遣返甄别广州非洲人,你现在叫一个权不下州的联邦政府首脑去给你画驱逐非法移民的大饼,呵呵。难道你以为20M非法移民全部龟缩在DC的?!&b&另外说奥巴马在过去8年驱逐了比美国任何一任总统都要多的有案底的非法移民,奥黑该做的没少做,可惜他不太会吹啊。&/b&&/li&&li&社会福利:关于社会福利我也在不同场合下去解释过,但是一并解释比较好。川普的支持者很大一部分人为美国的社会福利被滥用,但是说到具体哪部分被滥用,被谁滥用却支支吾吾。简单的来说联邦层面的福利仅仅有几类:supplemental security income (SSI), Social Security Disability Insurance(SSDI),Section 8 Housing,Medicare,还有一个很存疑的Obamacare(因为这玩意太糟心了)。所有的联邦福利都需要是美国公民才能领取,SSI/SSDI的申请需要3个月,Housing看地方不同需要1年左右。至于有些地方讨论的很多的Food Stamp,Medicaid都属于州政府管辖权内,跟你联邦政府原则上关系不大。拿联邦福利也好,政府福利也好,在我看来90%是确实有帮助的人。我自己交税也不会说去鄙视这些人&b&。从犬儒的角度来说,交税维持社会稳定;从实际的经验来说,救急不救穷。&/b&我要鄙视的是那些开着x3拿福利的welfare queen,和那些有能力自食其力却满足于蝇头小利而不愿意继续向上奋斗的人。但是&b&知乎上有一群有绿卡的中国人,拿着蓝皮护照的华人,对于所有领福利的人都非常不齿。脸谱化一群人是很容易的事情,但是真正去了解一下好像又挺难的&/b&。我想问问屁股在美国的各位,请你自己回想一下入籍/绿卡的过程,&b&是不是犹如白莲花一样纯洁&/b&,和政治庇护、婚姻、一点关系都没有。有趣的是,我周围的很多pro-trump的人都是政治庇护、婚姻绿卡的一群人(不是说AS6或者说婚姻绿卡的人都是pro-trump,你们这么说是要负责的晓得不晓得),这让我觉得实在是很难理解这种刚放下碗就骂娘的思路。&/li&&li&还有一点私货就是,如果我有选票(讽刺的是今年没有选票对我来说是个plus,否则我真不知道如何面对自己的内心),对于总统这个位置,我是死也不会去选政治素人的。川普的&b&最好&/b&归宿应该是某红州的州长(祝那个州好运),他可以自立国中之国,看他怎么来分配手中有限的资源来树立典型,对抗他认为要为美国“堕落” 负责的establishment,illegal immigrants,muslim extremists,还有 对岸的柯文哲和蔡英文已经给我们一个很好的例子,告诉我们完全的政治素人执政一个城市,和一个有着明确政治纲领的反对派领袖执政一个岛会是什么样子了。&/li&&li&关于阶级和种族:这点是一个&b&perspective&/b&,评论里有人把这个当成“美国社会就是这样运转的”,报道造成的偏差你要负责晓得不晓得。我感觉这点上两党都没法触碰的原因是,在一个否认马克思主义学说的资本主义国家中,阶级是不存在的,或者是事实上符合统治阶级的群体想要掩盖的;但是我认为阶级的共性要远远大于种族的共性。这就像为什么知乎的很多高玩,能和同一阶级的码工三哥穆斯林交谈甚欢,但是却对拿着社保的华人无甚交集。这个时候你拿种族出来谈事情我觉得就是呵呵呵,别扯的好像我什么事情都能pivot到种族上一样,实际上是大家都知道,种族是谈论事情的最后一块遮羞布,不谈论种族难道你跟我讨论消灭阶级?你难道能消灭一个不存在的东西吗?&/li&&li&关于性别歧视和性别平权:我是鄙视中华田园女权和中华田园男权的,这个道理放在美国人身上也一样。我的意思是不要双标。有些东西是没有党派背景,而是放在任何一个大背景下都一样的,比如这个年代的男女平权。小猫门这种听过录音,看过道歉录像的人心里都有谱,最近民调降低这么多点,白女这个群体功不可没。&/li&&/ol&川普就这样吧。他当不当总统说穿了和我利益都不大。蓝的红的,上台了都是紫的。我现在看到华人排期那么长,望着自己手里遥遥无期的等待,怪谁都没有用拉,还不是怪当初自己眼拙没来个PHD做个学术狗?&br&诸位川粉,我担心你们的心理健康。媒体在这次选举中才是最大赢家,他们为了流量,脸都可以不要,你们别天天看小报了,走出去和你周围的非法移民聊聊,他们就在你身边。
今年的大选我已经受够了。2016年对我个人和对我周围的朋友都是很糟糕的一年,其中这个糟心的大选贡献了50%的负能量。 就回答这个问题来说,问的是是不是pro-trump,那么我的答案是我anti-trump。放心,我接下去有心情会去回答我是不是anti-Hillary,我的答…
第十回 奥巴马忿怒兴核武 张召忠谈笑破赖斯&br&安德鲁击败美军,擒得康威,大锤、局座大喜令赏德鲁蜀锦一匹,景阳冈酒一瓶,帐下城管羊毛绒一匹,白兰地两瓶。录下功劳,又问及何人于万军中击落武直,助德鲁斩杀詹姆斯。德鲁答曰:“此城管名邵佳一,原于国足效力,因铁腿无敌,当之者非死即伤,不当者亦然,人莫不惧之。后于赛中点球射门,不意击落一架来犯敌机,为国立得大功,万人敬仰,故传威名‘中国有邵佳一,点球打飞机’。于是投球从戎,报名参城管,纳入奉天伐美军中。”大锤大喜,命佳一入见,拜之为右路领兵使,飞卫将军,赏不列颠王室勋章一枚。佳一大喜过望拜谢。&br&奥巴马得知乔治亚、卡罗莱那、田纳西失守,心甚忧之,遂遣赖斯、康威两路击英。人报康威已被擒,巴马忧愤,召文臣武将议事。殿下闪出一将,身长八尺,方面大耳,因蜀中官话说的极好,故人称川普,奏曰:“此英军甚强,狼主恐非敌手,不若割地纳款以求和,实为上策。查尔斯雄才大略奸诈无比,张召忠智计多端狼子野心,安德鲁、李双江皆万人敌,霍金、马伯庸世之鬼才,释永信、麦克里什、贝克汉姆剽勇无双。。。。”未及言毕,巴马大怒:“汝焉敢长他人志气,灭我等威风。查尔斯贿赂汝四川腊肉耶?既如此,何不献我,尔自独吞。与吾拉出,杖责五十。”打得普直叫“格老子,龟儿子,痛杀我也。”&br&巴马令取核按钮以予赖斯,灭英军于一役。克里谏曰:“核武一出,非但英军,吾国亦必数百万生民化为齑粉。岂不败坏我大美名声?”巴马笑曰:“人岂信美国屠民耶?皆笃信美国爱其民人也。”&br&鲁尼侦知赖斯军中运来核武,大惊,急报之大锤、局座。英军上下莫不震恐,大锤升帐,未及开言,麦克里什报曰:“吾愿率我军精锐奇袭,趁其不备,夺得核武。”局座笑曰:“赖斯深通兵法,且极其诡诈,核武器处,必有重兵把守,且层层设伏,公焉可近前?”普尔福德报曰:“不若使我军速退,令其不可炸吾。”局座曰:“吾等岂可速于核武?”邵佳一曰:“吾愿用点球,拦截核武。”局座曰:“核武甚多,一齐发来,必不可尽截。”他将正欲言,局座摇羽扇曰:“公等但回营,饱飨士卒,待明日大战美军,生擒赖斯。”诸将狐疑而退。&br&翌日,两阵对圆,赖斯跨匹黑马,头戴百羽冠,身披豹皮袍,手持猎象矛;身旁一将,豹眼狮头,猩臂熊腰,腰悬复合弓,手持鲍依刀,咬牙怒目,正待厮杀,乃史泰龙也。身旁麦克雷文手持火箭筒,希尔手持m4,气冲牛斗。这边查尔斯持锤于阵前,身侧张召忠道袍竹冠,手持七星剑。释永信提起禅杖,麦克里什握紧钢鞭,抖擞精神。&br&赖斯问曰:“公等为何犯我大美疆界?”局座答曰:“贵国虐毒生民,吾等自当替天行道,焉论疆界?此非贵国惯行之事耶。”斯笑曰:“局座所言甚是。君远道而来,,特献核弹数百枚。曾赠广岛长崎,君为其三矣。”戴旭大怒请曰:“愿许旭出战,斩赖斯为卡中堂报仇!”言未毕,斯令牵出一人,下身着大裤衩,上身褴褛,满面灰尘,谓之曰:“劳烦卡中堂稍侯片刻,待英军尽灭后,即送中堂上路。”言毕开一黑箱,按下核按钮,众核武升腾而起,赴英军阵中而去。英军惊惧难抑,阵脚几乱。只见局座焚香默祝,七星剑上挂一黄符,喷口黄酒,符即燃起。局座大喝曰:“第三炮兵何在?”车后即闪出七人,身着西装,头戴礼帽,手抱键盘,踏成北斗七星形状。&br&斯大惊,问曰:“此乃夸谁谁死捧谁谁亡,战略忽悠局辖下第三炮兵也?”局座笑曰:“国务卿博学多识,召忠佩服。人言常规武器,不如生化武器。生化武器不如核武器。只是不知核武器孰强于因果律武器也?今日有幸一试,岂非乐事?”斯急命美军速速退兵。&br&但见第一人颂曰:“美国护照有言,纵尔行于何地,国亦为汝之干城。”第二人颂曰:“美国枪支虽滥,然极少枪击之事,无辜死于枪口者,少之又少。”第三人颂曰:“美国治安胜中华远矣。”于是,原飞向英军之核武升天去了。局座呵呵大笑曰:“赖斯,汝今日死期已至!”第四人又颂:“美国寒士之子,靠己力亦可升为公卿,易于中华远矣。”第五人颂曰:“美国一心为公,非为己私,所灭之国,美军来后尽皆国泰民安,决不炮火连天。”第六人颂曰:“美军条子爱民至深,决不随意毙人,胜中华远矣。”。核武已返向。第七人又颂:“倭奴国十岁童子,皆可负二十公斤重物,日行百里,胜特种兵远矣。”颂毕,那百十枚核弹尽向西飞去了。英军乘机追杀,斩获无算,救下梅伦,斯据关自守,不提。&br&诸将皆贺局座神力世所罕及,但见局座面如白纸,气虚乏力,摇手曰:“第三炮兵虽利,然极损阴德,于人为害不轻也,故不敢常用。”言毕,一口鲜血吐出, 大锤急命扶入帐中诊治。进得帐中,局座命人将第七人牵来斩首,大锤曰:“此乃有功无过之人,军师为何斩之?”局座曰:“吾已变核武方向,只须第七句称颂美国,核武即飞入美军阵中。待阵斩赖斯,美军丧气,即可直取华盛顿。赖斯奸诈多谋,必难可卒破。吾兵不及两万,强挑全美,彼只须据关自守,吾等必师疲粮尽。那时全美乃至全球之兵云集围我,吾等危矣。”那人扣头请罪曰:“小人日夜思度倭奴神武,故失神而出此言,万望局座饶下死罪。”大锤叹曰:“吾亦虑此事。然后不宣其罪状而斩之,将士必寒心。宣其罪状,则军心动摇。望军师饶之。”局座长叹曰:“罢了,天不灭赖斯。吾今日事不成,此岂非天意也?”言罢又吐血一口,昏迷过去,大锤急令人诊治不提。&br&后有 &a data-hash=&f35fcb19ea59f4a12754& href=&/people/f35fcb19ea59f4a12754& class=&member_mention& data-hovercard=&p$b$f35fcb19ea59f4a12754&&@马伯庸&/a&
作古风一首颂局座曰:&br&天数何难料,召忠在中央,&br&双唇奋六合,三寸动四方。&br&曾励海珊志,犁庭扫闾光&br&;慧眼识大佐,一朝赴黄粱;&br&拉登兵解苦,金孙巡天殇。&br&惟恶天竺事,长箭飞友邦。&br&谶语昭运命,老乌不虚当;&br&成败一言耳,天地慨而慷。&br&战略忽悠局,大英迷魂汤,&br&列强俱震怖,河北名将张。(如侵权,删)&br&却说那些核武飞到哪里?因韵脚称颂倭奴,故全引至大倭奴国北海道去了,炸的人畜尽灭,无有遗类,时招核&br&九十一年也。
第十回 奥巴马忿怒兴核武 张召忠谈笑破赖斯 安德鲁击败美军,擒得康威,大锤、局座大喜令赏德鲁蜀锦一匹,景阳冈酒一瓶,帐下城管羊毛绒一匹,白兰地两瓶。录下功劳,又问及何人于万军中击落武直,助德鲁斩杀詹姆斯。德鲁答曰:“此城管名邵佳一,原于国足效…
已有帐号?
无法登录?
社交帐号登录}

我要回帖

更多关于 7tave.com 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信