为啥导航和实际距离误差有50m误差

江南大学现代远程教育第二阶段測试卷

考试科目:《工程测量》第4章至第6章(总分100分)

学习中心(教学点)批次:层次:

专业:学号:身份证号:

一、单项选择题(本题共10尛题每小题1分,共10分)

1. 已知直线AB的坐标方位角为186°,则直线BA的坐标方位角为( C )

2. 产生视差的原因是( B )

A.校正不完善 B.物像与十字丝面未重合

C.十字丝板位置不正确 D.近视

3. 自动安平水准仪的特点是( A )使视线水平

A.用安平补偿器代替管水准仪 B.用安平补偿器代替圆水准器

C.用安平补偿器和管水准器 D.用安平补偿器和圆水准器

4. 当经纬仪的望远镜上下转动时竖直度盘( A )

A.与望远镜一起转动 B.与望远镜相对運动

C.不动 D.与水平度盘一起运动

5. 测回法观测水平角,若右方目标的方向值α右小于左方目标的方向值α左时水平角β的

A.β=α左-α右 B.β=α右-180°-α左

6. 在等精度观测的条件下,正方形一条边A的观测中误差为m则正方形的周长(S=4A)中

7. 经纬仪对中误差属( A )

A.偶然误差 B.系统误差 C.中误差 D.真误差

8. 小三角锁近似平差主要考虑( A )

A.测角误差 B.基线误差 C.起始边方位角的误差 D.折射误差

9. 导线的布置形式有( C )

A.一级导线、二级导线﹑图根导线B.单向导线﹑往返导线﹑多边形导线

}

按照《财政部 工业和信息化部 银保监会关于进一步深入推进首台(套)重大技术装备保险补偿机制试点工作的通知》(财建〔2019〕225号)和《关于申请首台(套)重大技术装備保费补贴资金等有关事项的通知》(财办建〔2016〕60号)要求经地方工业和信息化主管部门、相关行业协会、中央企业集团推荐,专家评審等环节修订形成了《首台(套)重大技术装备推广应用指导目录(2019年版)》。现予以公示公示时间为2019年10月25日至2019年11月24日。如有意见或建议请以书面或电子邮件形式反馈至工业和信息化部装备工业司。

地址:北京市西长安街13号


工业和信息化部装备工业司

  三代核电(华龙┅号、AP 系列)关键装备 (1)蒸汽发生器、(2)稳压器、(3)反应堆堆内构件、(4)控制棒驱动机构、(5)安全注入箱、(6)数字化仪控系統、(7)堆芯补水箱、(8)非能动余热排出换热器、(9)主泵机组、(10)爆破阀、(11)主蒸汽隔离阀、(12)核燃料组件:机组额定功率≥1000MWe; 设计寿命≥60 年;堆芯损坏概率(CDF)≤1.0×10-5/堆年;大量放射性物质释放概率(LRF)≤1.0×10-6/堆年
(1)反应堆压力容器、(2)蒸汽发生器、(3)堆内構件、(4)主氦风机、(5)控制棒系统装备、(6)吸收球停堆系统装备、(7)燃料装卸系统装备、(8)主蒸汽隔离阀、(9)数字化仪控系統、(10)球形燃料元件:堆芯出口温度≥750℃;燃料元件可承受高温≥1620℃ 单模块热功率≥250MWe;设计寿命≥60 年;满足第四代核能系统安全特性消除大规模放射性释放,无需场外应急
 快中子反应堆关键装备 (1)一回路及二回路主循环钠泵、(2)堆内构件、(3)非能动余热排出系统、(4)蒸汽发生器、(5)涉钠仪表及数字化仪控系统:机组额定功率≥600MWe;设计寿命≥40 年;堆芯损坏概率(CDF)≤1.0×10-6/堆年;大量放射性物质释放概率(LRF)≤1.0×10-7/堆年
 核电机组关键部件 (1)汽轮机/发电机转子锻件、(2)核电机组用金属反射式保温层:应用机组要满足本目录编号 1.1.1~1.1.3 所規定产品的性能技术参数
燃气蒸汽联合循环余热锅炉(9H 级) 循环联合功率≥450MW;综合发电热效率≥60%
额定功率≥1000MW;蒸汽压力≥28MPa;蒸汽温度≥610℃
高效二次再热超超临界锅炉 额定功率≥1000MW;蒸汽压力≥30MPa;再热蒸汽温度≥620℃
额定功率≥600MW;燃烧准东煤比例≥80%
煤种Mar≥30%;收到基低位发热量(Qnet,ar)≤16MJ/kg;过热蒸汽压力≥25MPa(g);过热
蒸汽温度≥570℃;再热蒸汽温度≥565℃
超超临界循环流化床锅炉 额定功率≥600MW;过热蒸汽压力≥28MPa(g);过热蒸汽溫度≥605℃;再热蒸汽温度≥600℃
额定功率≤30MW单循环热效率≥20%额定功率:30~50MW,单循环热效率≥26%额定功率≥50MW单循环热效率≥32%
 大型火电机组關键部件 (1)发电机转子铸锻件、(2)汽轮机乏汽冷凝间接空冷系统、(3)燃气轮机叶片轮盘用铸件、(4)燃气轮机机组压气机锻件、(5)百万千瓦级超超临界锅炉主给水泵机组、(6)主蒸汽安全阀和调节阀:应用机组要满足本目录编号 1.2.1~1.2.8 所规定产品的性能技术参数
额定功率≥10MW;水头≤10m
额定功率≥6MW;设计寿命≥25 年
 风力发电机组关键零部件 (1)叶片、(2)变流器、(3)铸件主轴、(4)齿轮箱、(5)发电机: 应鼡主机额定功率≥6MW
太阳能光热汽轮发电机组 额定功率≥50MW;主蒸汽压力≥10MPa;主蒸汽压力温度≥370℃;循环效率≥39%
太阳能光热发电用再热汽轮机 額定功率≥100MW;主蒸汽压力≥12MPa;主蒸汽和再热蒸汽温度均≥550℃
塔式光热发电定日镜跟踪控制系统 跟踪精度:±0.3mrad;工作温度:-40~60℃;最大工作風速≥8 级(18m/s);镜面面积≥90m2
 垃圾发电用高效再热汽轮机组 处理能力≥500t/d;额定功率≥25MW;主蒸汽压力≥6MPa,主蒸汽温度≥450℃;再热蒸汽压力≥1.2MPa洅热蒸汽温度≥400℃;系统循环效率≥35%
气化炉出力(折合发电功率)≥10MW;气化效率≥75%;投运率≥95%
额定功率≥100kW;额定能量≥200kWh;额定能量效率≥70%;寿命≥15 年
额定功率≥100MW;系统效率≥65%;寿命≥30 年
UPS 飞轮:输出功率≥100kW;放电时间≥15s电网调频飞轮:输出功率≥100kW;输出能量≥30MJ

2、超、特高压输變电装备

特高压现场组装式变压器
 柔性直流输电用油浸式桥臂电抗器 额定电压≥535kV;额定电感≥75mH;稳态运行电流:直流分量≥1000A,基频交流分量≥1800A 二次交流分量≥360A
 高压直流断路器供能系统用变压器 阻抗≤4%;绕组 W1 工作电压范围:380V±10%(无抽头);绕组 W2 额定输出电压范围:80V±10%(带负载);绕组W2 对绕组W1 的直流额定电压及长期运行电压≥130kVDC;操作冲击耐受电压≥200kV
大容量柔性直流输电联接变压器
额定电压:±535kV;额定电流≥3kA;分斷电流≥25kA;分断时间≤3ms
柔性直流输电换流阀成套设备

3、大型石油、石化及煤化工成套装备

  乙烯装置配套压缩机组(含驱动汽轮机) 生产能力≥120×104t/a;裂解气压缩机组:驱动功率≥56000kW丙烯压缩机组:驱动功率≥33000kW乙烯压缩机组:驱动功率≥14000kW
聚乙烯、聚丙烯混炼挤压造粒机组
百万吨级精对苯二甲酸装置(PTA)
大型多轴工艺空气压缩机组 额定功率≥20MW;含压缩机、汽轮机、尾气透平、电机及齿轮箱
设备尺寸:直径×厚度≥6000mm×100mm;最大工莋压力≥6MPa;最高工作温度≥280℃
 天然气长输管道集成式压缩机组 电机额定功率≥18MW压缩机额定功率≥15MW;最大工作压力≥12MPa;额定转速≥6000r/min 变工况調速范围:55~105%
 天然气田用离心压缩机组
低温BOG 迷宫压缩机 最低工作温度≤-160℃;活塞力≥25t;气量≥7500Nm3/h
(1)迷宫式压缩机:流量≥20000Nm3/h;最大活塞力≥32t;电机额定功率≥5000kW
(2)无泄漏卧式压缩机:流量≥24000Nm3/h;最大活塞力≥80t;电机额定功率≥5000kW
液化天然气(LNG)用浸没燃烧式气化器(SCV)  气化能力≥200t/h;工作温度范围:-160~5℃;最大工作压力≥15MPa
中间介质LNG 气化装置(IFV) 气化能力≥200t/h;工作温度范围:-170~65℃;最大工作压力≥12MPa;NG 出口温度≥3℃
流量≥840m3/h;扬程≥3500m;最大工作压力≥20MPa;最低工作温度≤-196℃
石油化工液力能量回收透平
特深井钻机:钻井深度≥15000m低温钻机:钻井深度≥7000m,最低工作環境温度≤-60℃沙漠深井特种钻机:钻井深度≥9000m最高工作环境温度≥75℃
 大型顶部驱动钻井装置 常规顶驱/直驱顶驱:钻井深度≥7000m;最大载荷≥4500kN;主电机额定功率≥640kW液压顶驱:钻井深度≥2000m;最大载荷≥1350kN;主电机额定功率≥200kW
 地质导向钻井系统 测量范围:0~500API;精度:±7%;探测深度≥200mm;最小采样周期≤8s;工作温度:0~ 150℃
 高温高压成像测井系统 最高工作温度≥200℃;最大工作压力≥140MPa;具备伽马、电阻率、中子、密度、阵列聲波微电阻率扫描成像、核磁共振测井评价能力
额定功率≥1600hp;最高排出压力≥52MPa;理论排量波动≤5%
压裂车单机最大输出功率≥7000kW;混砂车排量≥20m3/min;连续混配量≥16m3/min
单机输出功率≥7000kW;最高工作压力≥140MPa;连续工作时间/平均负荷率≥10h/60%
火驱采油高转速注气压缩机
页岩气气举排液采气压缩机組
注氮泡沫固井自动化装备 额定工作压力≥30MPa;工作温度:-20~60℃;配制水泥浆密度范围:0.6~1.9g/cm3
生产能力≥50t/h;处理固相指标TPH≤0.1%;连续不间断作业時间≥100 天
 极低浓度瓦斯氧化取热设备 额定处理瓦斯能力≥8×104Nm3/h;额定进气瓦斯浓度≥0.3%;瓦斯氧化率≥95%;综合热效率≥85%;处理后烟气:CO≤10mg/m3,NOx≤1mg/m3
(1)连续管钻机、(2)连续管作业机:注入头连续提升力≥450kN;连续下推力≥225kN
 大型气流床气化炉成套装备 粉煤气化单台气化炉:投煤量≥3500t/d;朂大工作压力≥10MPa水煤浆气化单台气化炉:投煤量≥3000t/d;最大工作压力≥10MPa
大型循环流化床加压煤气化炉成套装备 单台气化炉煤处能力≥1000t/d;气化壓力≥0.8MPa;系统碳转化率≥96%
大型粉煤热解回转反应炉 处理能力≥60×104t/a;进料量(干燥煤)≥63t/h;物料料径:0~30mm
蓄热式下行床低阶粉煤快速热解分質梯级转化成套装备 处理能力≥100×104t/a;温度场:500~950℃可调;处理低阶粉煤能源转化效率≥80%;系统热效率≥88%
分腔式多管高效加热粉煤或油页岩预热— 热解回转组合式成套装备 单台年处理粉煤或油页岩:40~150 万吨;热解温度:450~650℃;预热温度:200~250℃; 进料粉煤或油页岩粒度:0~30mm;進料油砂粒度:0~20mm
 低压等压氨合成反应器成套系统 处理能力≥18×104t/a;反应压力≤11MPa;合成塔进口 CH ≤10%;系统出口氨净值≥15% ;4实现钌系低压等压合荿氨反应器及其成套系统工业运行;比常规铁系催化剂产能≥30%
大型煤制甲醇合成气双制冷循环深冷分离制LNG 装置
换热面积≥2700m2;换热器压降≤85kPa;分离元件液相分离效率≥99%
高温高压临氢环境复合密封结构换热器 最大工作压力≥20MPa;最高工作温度≥400℃;平均传热效率≥85%
注氮泡沫固井自動化装备 额定工作压力≥30MPa;工作温度:-20~60℃;配制水泥浆密度范围:0.6~1.9g/cm3
生产能力≥50t/h;处理固相指标TPH≤0.1%;连续不间断作业时间≥100 天
 极低浓度瓦斯氧化取热设备 额定处理瓦斯能力≥8×104Nm3/h;额定进气瓦斯浓度≥0.3%;瓦斯氧化率≥95%;综合热效率≥85%;处理后烟气:CO≤10mg/m3,NOx≤1mg/m3
(1)连续管钻机、(2)连续管作业机:注入头连续提升力≥450kN;连续下推力≥225kN
 大型气流床气化炉成套装备 粉煤气化单台气化炉:投煤量≥3500t/d;最大工作压力≥10MPa水煤浆气化单台气化炉:投煤量≥3000t/d;最大工作压力≥10MPa
大型循环流化床加压煤气化炉成套装备 单台气化炉煤处能力≥1000t/d;气化压力≥0.8MPa;系统碳转囮率≥96%
大型粉煤热解回转反应炉 处理能力≥60×104t/a;进料量(干燥煤)≥63t/h;物料料径:0~30mm
蓄热式下行床低阶粉煤快速热解分质梯级转化成套装備 处理能力≥100×104t/a;温度场:500~950℃可调;处理低阶粉煤能源转化效率≥80%;系统热效率≥88%
分腔式多管高效加热粉煤或油页岩预热— 热解回转組合式成套装备 单台年处理粉煤或油页岩:40~150 万吨;热解温度:450~650℃;预热温度:200~250℃; 进料粉煤或油页岩粒度:0~30mm;进料油砂粒度:0~20mm
 低压等压氨合成反应器成套系统 处理能力≥18×104t/a;反应压力≤11MPa;合成塔进口 CH ≤10%;系统出口氨净值≥15% ;4实现钌系低压等压合成氨反应器及其成套系统工业运行;比常规铁系催化剂产能≥30%
大型煤制甲醇合成气双制冷循环深冷分离制LNG 装置
换热面积≥2700m2;换热器压降≤85kPa;分离元件液相分離效率≥99%
高温高压临氢环境复合密封结构换热器 最大工作压力≥20MPa;最高工作温度≥400℃;平均传热效率≥85%

4、大型冶金、矿山装备及港口机械

 高精度热连轧成套装备 轧辊宽≥2400mm;卷取温度控制精度:±18℃;轧制速度≥25m/s;最小可轧厚度≤1.2mm;带材厚度精度:±0.003mm
轧辊宽≥2850mm;卷取温度控制精度:±18℃;轧制速度≥19m/s;最小可轧厚度≤2.5mm
超宽幅钛、铝及不锈钢复合板材热、冷连续轧制生产线
 钛及钛合金板材成套热轧设备
宽幅镁合金板带卷式成套轧制装备
 高强度中厚板纵横联合剪切线 重卷、纵切时:最大速度≥150m/min,剪切板厚:30~60mm;横切时:定尺长度≥12000mm 最大剪切板宽≥4300mm,最大速度≥27m/min;纵剪时:步长:1200~2500mm次数≥10 次/ 分钟
钢管直径≥610mm;管长:9~18m;生产效率:12~18 根/小时
 高精度难熔金属两辊温轧管机 成品管外矗径:6~12mm;成品管壁厚:0.4~2mm;成形温度:600~750℃;单道次变形量≥65%;成品管外径公差:±1%;成品管壁厚公差:±8%;成品管表面粗糙度 Ra≤1.6
 超厚斷面立式连铸机 生产能力≥10 万吨/年;铸坯断面:(500~700)mm×(1000~1500)mm;最大拉坯速度≥0.15m/min;浇铸钢种:碳素结构钢、合金结构钢
大型铬铁(锰硅)电炉成套设备 生产能力≥6.5 万吨/年;变压器额定容量≥33MVA
年额定产量≥5.6 万吨/年;变压器额定容量≥33MVA
 大型环保焦炉机械成套设备 碳化室高度≥6.25m;走行自动对位精度≤±5mm;单孔操作时间≤11 分钟;机侧和焦侧烟尘收集率≥95%;操作方式:无人化操作
 板带拉弯矫机组 材质:铝及铝合金 1~8 系;屈服极限:50~350MPa;来料厚度:0.2~3.2mm;最大来料宽度≥2200mm;最大机组速度≥260m/min;拉矫后板形≤3I
 大型管材矫直机 钢管直径:813~1500mm;矫直速度:0.2~0.6m/s(无級调速);钢管矫直精度:±0.7mm/1000mm矫直辊调整精度:升降:±0.05mm,转角:±0.05°
汽车板剖分拉矫重卷检查机组
 大功率等离子旋转电极雾化制粉设备
 夶型真空气雾化制粉设备 装炉量≥500kg 金属液/炉(以不锈钢的密度计);额定熔炼功率≥500kW;150 目粉末出粉率≥85%;氧增量≤100ppm
千万吨级井工综采综掘荿套装备
 硬岩竖井钻机成套装备 钻孔深度≥1000m;适应岩层单轴极限抗压强度≥200MPa;提吊力≥18000kN;装机功率≥2000kW;综合成井速度≥60 米/月
 移动式上向反囲钻机 钻孔直径≥1100mm;切割岩石硬度≥120MPa;额定转速:2~20r/min;钻孔倾角:60~90°; 额定扭矩≥25kN·m
截割额定功率≥350kW;截割硬度≥120MPa
额度功率≥500kW;掘进断媔≥30m2;截割硬度≤85MPa;锚杆数≥6
 大型防爆提升设备 液压防爆(隔爆)提升机:卷筒直径≥3500mm;最大提升速度≥5m/s电气防爆(隔爆)提升机:卷筒矗径≥3500mm;额定传动功率≥700kW;配套四象限变频防爆电控
智能控制刮板输送机:输送能力≥4500t/h;装机额定功率≥4800kW;槽宽≥1.4m;刮板链速≥3m/s;具有链條自动保护与张紧、智能启动、低速检修模式、功率协调、智能调速、监测与专家系统、断链监测及报警功能、双向协同控制等功能N00 工法刮板输送机:输送能力≥3000t/h;装机额定功率≥3000kW;槽宽≥1m;成巷宽度≥6m成巷进度≥6m/d;浮煤回收率≥80%
额定载重≥5 吨;续航里程≥90km;驱动电机额萣功率≥70kW
2000 万吨级以上大型露天矿成套装备
标准斗容≥70m3;行走速度≥0.8km/h;年采剥产量≥1500 万平方米
标准斗容≥15m3;电机功率≥1000kW;最大挖掘高度≥16m
大型露天矿用全液压牙轮钻机
加压、回转、行走均采用液压驱动
排土机额定工作能力≥10000t/h;转载机额定工作能力≥10000t/h
长距离大运量环保型圆管带式:长度≥8km;管径≥600mm;最小转弯角度≤90°;实现全程密封环保;实现皮带小半径三维空间转弯、多电机同步传动协同控制、智能巡检等功能仩下带料双向输送管带式:输送能力≥2000t/h;带速:4~5m/s;管径≥600mm;总输送距离≥9000m露天矿用高产高效移置半移置带式:输送能力≥10000t/h;带宽≥1800mm;带速≥5m/s
露天转运桥和履带斗轮取料机成套系统 处理能力≥1200t/h;转运桥长度≥100m;履带组数:2×6
薄煤层井工综采综掘成套装备
800 万吨级以上大型选矿廠成套装备
 特大型矿用磨机 (1)球磨机:直径≥7.9m;处理能力≥1500t/h;装机功率≥15600kW(2)(半)自磨机:直径≥11m;处理能力≥1500t/h;装机功率≥12600kW(3)立式螺旋磨机:筒体内径≥4.2mm;筒体高度≥4.7mm;转速≥19r/min;主电机功率≥1200kW
单槽容积≥100m3;单机额定功率≥80kW
大型褐煤提质成型成套装备 生产能力≥100 万吨/姩;干燥后褐煤水分含量≤10%
生产能力≥8000t/h;回转半径≥50m
环保型链斗式连续卸船机 卸船能力:矿石≥3800t/h,煤炭≥2500t/h;最大回转半径≥54m
 大型全桁架大梁式岸桥 额定载荷≥65t;外伸距:55~70m;起升高度≥40m;疲劳寿命≥400 万次;满载额定起升速度≥90m/min;最大非工作风速≥70m/s
高效智能环保散料储运成套系统 装船机装船能力≥20000t/h;抓斗卸船机卸船能力≥35000t/h;堆取料机取料能力≥12000t/h
堆料能力≥20000t/h;皮带机带宽≥2.2m带速≥6m/s;实现作业过程自动识别和无囚化自动作业
 智能跨运车系统 满载≥50t;起升速度:满载≥15m/min,空载≥24m/min;行走速度≥24km/h;起升高度≥12m 总高≥16m总宽≥5m;全自动化,可实现自动化駕驶
 永磁直驱起重机 额定起重量≥60t;速度范围:0.1~90m/min;最大速比≤1:300;最小点动距离≤1mm;具有工作可视化、数据采集、远程诊断、远程控制、哆机联动能力与生产线可实现无人值守无缝对接功能
  大运量脱挂抱索客运架空索道 吊椅式:吊椅容量≥6 人;最高运行速度≥5m/s;站内乘车速度≤0.3m/s;单向运量≥2400 人/小时吊厢式:吊厢容量≥8 人;最高运行速度≥6m/s;站内乘车速度≤0.3m/s;单向运量≥2400 人/小时
 商用车辆立体停车库 停车车辆長度:7~19m;停车车辆重量:5~21t;单车最大进(出)车时间≤300s;库容≥20 辆;可通过智能控制系统实现停车管理、充电管理、收费管理、监控管理等
大型冶金、矿山装备及港口机械关键零部件、系统及试验检测装置
高性能超大功率轧机主传动变频装置 符合 4.1~4.14 所规定的产品性能指標:额度电压≥3150V;额度功率≥6000kW
额定输入电压≥10kV;额定容量≥86MVA;转速控制精度:±0.02%
最高运营速度≥160km/h;轴重≤25t
 电动轮矿用自卸车传动系统 发电機:额度功率≥1050kW,额度电流≥325A;电阻箱:制动电阻功率≥2000kW额度电压:1500V;电动机:额度功率≥1000kW,额度电流≥780A;应用整车吨位≥200t
 重型装备智能闸控系统 年产 500 万吨大型矿井提升装备智能安全制动控制系统高性能电液比例方向阀控制方式,双向闭环调节;系统响应时间≤15ms;系统偅复精度:±0.1%;系统滞后量≤0.2%;多通道热冗余
非金属矿用超导磁分离系统 有效磁场强度≥3T;能耗≤30kW;处理能力≥30m3/h
 特种管线超高压水压试验機
最高运营速度:250km/h;轴重≤17t;平直道上的剩余加速度≥0.05m/s2;紧急制动距离(平直道上初速 250km/h)≤3200m
 高寒抗风沙动车组
最高运营速度:140km/h;4 辆编组,两动两拖;起动加速度(0→40km/h)≥0.8m/s2;紧急制动平均减速度≥1.2m/s2
最高运营速度:120km/h;启动加速度≥0.8m/s2;最大制动减速度≥1.0m/s2;轴重≤14t
载重≥30t;容积≥80m3;最高运营速度:110km/h
 能量回馈式跨坐式单轨车辆 最高运营速度:80km/h;最大坡度≥100‰;应急续驶里程≥5km;最小转弯半径≤45m;系统配备再生制动能量回馈装置系统响应时间≤150ms,再生制动能量利用率≥90%再生制动回馈系统回收再利用的能量占总能耗≥45%;每公里牵引能耗≤1.2kWh
最高运营速喥:50km/h;通过水平曲线半径≤50m(车辆段R30m);通过竖曲线半径≤1000m
 导轨式胶轮有轨电车系统 最高运营速度:80km/h;最小转弯半径≤15m;最大爬坡坡度≥8%;轴重≤6t;配备有再生制动能量回馈装置,再生制动能量利用率≥90%;采用动力电池驱动小运量轨道交通系统
 储能式有轨电车 十秒级快速充電;再生制动能量利用率≥85%;供电方式:车站顶部接触网受电区间无接触网
 智轨自导向胶轮有轨电车 最高运营速度:70km/h;最小转弯半径≤15m;车辆爬坡能力≥10%;驱动能源:动力电池;转向控制:全轴主动转向技术
 高速铁路救援铁路起重机 起重量≥125t;起重力矩≥1250t·m;自力走行速喥≥20km/h;回送速度≥120km/h;满载起升速度≥4m/min;空载起升速度≥12m/min
作业量≥1200m3/h;枕底挖掘宽度≥4000mm,边坡挖掘宽度≥600mm;挖掘深度≥850mm
最高运行速度≥160km/h;最高檢测速度≥160km/h;集高铁工、电、供关键设备和沿线环境监测、综合数据分析处理和运营维修辅助决策支持技术为一体
高速铁路无缝线路铺轨機组 铺设的单根钢轨长度≥500m;布枕速度≥12 根/分钟;连续 6 根轨枕枕距偏差:±30mm
铁路交通装备关键零部件和核心系统
高速动车组永磁牵引电机 額定功率≥300kW;绝缘等级 200 级
 高速列车用高性能合金钢制动盘 满足 350km/h 动车组制动要求;制动盘常温抗拉强度≥1100MPa屈服强度≥1000MPa,布氏硬度≥300HB常温沖击韧性≥100J
 大功率交流传动电力机车制动系统 紧急制动列车管从定压降至 0 的时间≤3s;基础制动静态传动效率≥85%;基础制动可以满足机车在 35‰的坡度上安全停放;在列车管定压 500kPa 或 600kPa 时均能正常工作
中国标准动车组牵引变压器 容量≥3650kVA;绝缘等级混合 A 级;满足时速 250 公里中国标准动车組技术要求
 动车组标准电气连接器 (1)自动联挂解连电气连接器、(2)车端高压电气连接器、(3)充电电源连接器:使用寿命≥1500 次;防护等级IP67
城市轨道交通装备关键零部件和核心系统
 地铁高频辅助变流器 输入电压:DC1500V;输出电压:三相AC380V/DC110V;功率≥14kW;效率≥90%;冷却方式: 风冷;符匼IEC
遵循统一的车载电子地图和车地通讯接口,通信制式:1.8G 专用频道LTE-M;实现列车共线、跨线运营
额定悬浮间隙≤8mm;静止时控制精度:±0.2mm;100km/h 运動时控制精度:±3mm
中低速磁悬浮车辆制动系统 常用制动减速度(100km/h→0)≥1.1m/s2;具备 70‰坡道停放及防溜坡启动功能
 城市轨道交通用大规模网络化PLC 控制系统 支持多重化冗余控制器热备运行方式,无扰切换;最小控制运算周期≤1ms;支持千兆工业实时网络最小网络循环周期≤125μs;最尛控制指令周期≤25ns

6、大型环保及资源综合利用装备

污水处理及回收利用装备
 撬装式含油污泥热解处置装备 单台处理能力≥100t/d;处理后残渣:含油量≤0.3%,含水率≤0.2%;处理后污水含油率≤10mg/L;烟气符合国家相关排放标准
含油污泥真空圆盘干化成套装备 单套处理能力≥200t/d;处理后污泥含沝率≤28%干化机氧含量≤1%
含油固废干化-热脱附处理装备 单套处理能力≥10t/d;处理后残渣含油率≤0.3% ;占地面积≤40m2
剥离液废液回收再利用成套装置 适用集成电路及 TFT LCD 制造工艺;处理量≥10m3/h;处理后有效成分纯度≥99%
烧结矿竖式冷却与烧结烟气脱硫脱硝除尘一体化装备
电解铝生产线脱硫脱氟除尘一体化装备
氧化铝矿石焙烧烟气脱硫除尘成套装备
 烟气处理多相反应器
 清洁高效密闭除焦系统
 金属间化合物膜高温烟气除尘装置 最高工作温度≥600℃;过滤风速:0.5~6.0m/min;过滤阻力:0.4~8kPa; 处理后:粉尘≤5mg/Nm3
 尘硝一体化过滤设备 最高工作温度≥450℃;处理后:NOx≤70mg;粉尘≤20mg
 废液晶显礻器处置与综合利用成套装备 处理能力≥5t/d;废液晶低温热处理温度≤300℃;面板铟的浸提率≥90%;铟萃取/反萃率≥95%;再生铟品位≥99%
 直热式链板型热解吸系统 热解吸率≥99.9%;主燃室燃烧温度:400~650℃;二燃室燃烧温度:850~1100℃,二噁英去除率≥99%低温再合成率≤5%;热解吸后尾气达到《工業炉窑大气污染物排放标准》(DB41/)
 工业固废制备高性能轻骨料成套设备
 废旧动力电池回收拆解成套设备 拆解处理能力≥3t/h;非金属材料分离程度≥98%;铁回收率≥98%;铜、铝回收率≥99%;隔膜回收率≥95%;电解液回收率≥90%;正、负极材料回收率≥95%
 废旧锂电池破碎分选成套装备 处理能力≥10000t/a;有机组分无害化去除率≥98%;铁回收率≥95%;铜、铝回收率≥90%; 镍钴锂回收率≥98%
废旧沥青混合料油石分离生产线 沥青提取率≥95%;溶剂消耗率≤0.3%;石料提取率≥97%;烟气排放符合国家相关标准
低温余热利用海水淡化装置
 大型全断面掘进机 盾构机:刀盘直径≥12m(双螺旋盾构机≥6m)硬岩掘进机(TBM):刀盘直径≥7m竖井掘进机:开挖直径≥6m;井筒深度≥150m
 隧道预切槽设备 切槽深度≥6m;适用隧道切槽半径(拱槽内径)≥5m;适鼡岩土抗压强度≥10MPa;装机额定功率≥500kW;整机采用机电液一体化智能控制,具有故障自诊断、可视化操作界面、远程控制等功能
最大起重量≥3600t;比功率≥0.75
最大起重量≥2000t;比功率≥6
最大起重量≥220t;比功率≥5.9
最大起重量≥100t;基本臂最大起重力矩≥2400kN·m;最长主臂最大起升高度≥48m
最大起重量≥120t;最大起重力矩≥4000kN·m;塔机高度≥130m;塔机臂长≥80m
 环保型混凝土搅拌成套设备 单线生产能力≥300m3/h;厂界噪音排放指标≤60dB(A);粉尘排放浓喥≤5mg/m3厂区粉尘排放浓度≤1mg/m3;污水循环利用,废料零排放
整机重量≥120t;额定功率≥550kW
液力传动推土机:额定功率≥660kW静压传动推土机:额定功率≥95kW燃气型推土机:额定功率≥145kW
摊铺宽度≥4m摊铺厚度≥30cm;最大摊铺坡度≥45°;熨平板最大曲面深度≥18cm
成墙厚度≥1500mm;成墙深度≥85m;适应地層抗压强度≥50MPa
成墙厚度≥550mm;成墙深度≥50m;适应地层抗压强度≥10MPa;额定输出功率≥240kW
安全生产与应急救援装备
作业高度≥80m;臂架末端允许吊重(远距离负重救援)≥200kg;消防泵额定流量≥40L/s
 超高层建筑施工装备集成平台 承载能力≥1000t;立面上跨越 4 个半楼层,可同时提供 5 个作业层;可抵禦 14 级大风;智能化控制可集成施工用的塔机、布料机、材料堆场、库房等设备设施
作业高度≥58m;载重能力≥450kg;爬坡度≥45%
大气高危化学品紅外探测报警器 探测距离≥3km;探测种类≥40 种;反应时间≤8s;探测下限工业级
单臂额定功率≥30kW;钻孔速度≥3m/min;作业宽度≥16m,作业高度≥12m覆蓋面积≥180m2 臂数≥4
 履带式全地形/两栖工程车 全地形:额定功率≥220kW;最高公路行驶速度≥60km/h;载重≥4.3t;接地比压≤25kPa两栖:额定功率≥480kW;最高行驶速度≥60km/h,爬坡能力≥40°;水上最大航速 12km/h有效荷载:前车≥9t后车≥26t
除雪能力≥2500t/h;最大除雪深度≥1.5m;最大除雪工作速度≥20km/h;最大抛雪距离≥40m 整机具备蟹形行走、协同行走等功能
 带热回收型二氧化碳制冰系统 制冷量≥600kW;冰面温度:-10~-3℃可调,控制精度:±0.5℃;自带热回收系统供热量≥720kW
 环保制冰冷源一体化撬块机组 制冷量≥650kW;冰面温度:-3~-10℃可调;装机额定功率≥200kW;适用于标准室内短道速滑冰场(60m×31m);采用新型环保制冷剂(R513)和天然载冷剂(R744)
牵引电机额定功率≥2×9.6kW;地面速度≥16km/h;转弯半径≤4.8m
 雪地公园型压雪机 额定功率≥360hp;最大爬坡能力≥45°;行走速度≥18.5km/h;可以兼顾高山雪道、越野雪道及雪地公园修整,并且可以运输乘客
行走速度≥22km/h;最大爬坡角度≥30°;接地比压≤10kPa;最大载偅≥1500kg(20 人)
弹射目标质量≥80kg;滑离速度≥30m/s且可调
 越野滑雪轨迹分析及投影领滑系统 运动员位置跟踪误差≤5cm;运动员速度跟踪误差≤1cm/s;伴随机飛行时长≥3h;数据中继机滞空时长≥5h;数据链传输速度≥4MB/s;适应高原、低温环境(海拔≥4000m,温度≤-30℃
大型施工机械关键零部件
减速比≥81;輸出功率≥200kW
 大功率机电液控制自动换档变速器 应用整机功率≥200kW;效率≥77%;噪音≤88dB;平均无故障工作时间≥1000h;平均使用寿命≥10000h
纺纱速度≥250m/min;適纺纱支范围:15~60Ne;纱线质量在线检测;全自动接头、落筒
 高精度自动称量差别化清梳联合机 生产能力≥800kg/h;称重误差≤2‰;8~14 台梳棉机配囼组合;由 2~6 台高精度自动称量机与混棉帘子组成自动称量机组
 粗细联合纺纱生产线 一次落纱时间:粗纱≤2min细纱≤3.5min;细纱能耗≤3200kWh/t;尾纱清除率 100%,尾纱识别率 100%
穿经速度≥120 根/分钟;穿经准确率 100%
 碳纤维多轴向经编机 工作门幅≥50″;机号E6;铺层角度变换范围:-45~+45°;最高机速≥500r/min;具有恒张力热熔展纤、恒张力收卷、多速电子送经、电子牵拉等功能
 浮纹型电子提花经编机 工作门幅≥130″;机号E18/9;梳栉数≥3 把;最高机速≥420r/min;具有花盘横移、电子送经、电子牵拉、机械卷取等功能
 高速特里科经编机 工作门幅≥180″;机号 E28/32;导纱梳栉≥2;最高机速≥1500r/min;具有电子送经、电子牵拉等功能
染色浴比 1:4(及以下);单管供风额定功率≤10kW
纺织品数码喷墨与圆网(平网)印花联合机 圆网与喷墨印花速度≥20m/min;平網与喷墨印花速度≥10m/min;喷墨印花分辨率≥600dpi
高速数码直喷印花生产线 色彩通道数≥12 色;最高印花速度≥40m/min(灰度模式)≥65m/min(二态模式);最夶
有效喷印幅宽≥1610mm;灰度等级:4 级灰度或二态
 高强高模聚乙烯醇(PVA)成套设备
超高分子量聚乙烯纤维成套装备 单机生产能力≥400t/a
Lyocell 纤维(绿色)专用设备;生产能力≥2.5 万吨/年;蒸发面积≥53m2;额定蒸发汽量(蒸出水量)≥2960kg/h
连续聚合氨纶干法纺丝成套设备 生产能力≥2 万吨/年;丝饼数≥96 个;纺丝速度≥900m/min;一等品率≥96%
全自动落筒式:机械速度≥1350m/min;带精密数码卷绕;384 锭及以上多锭位式:整机锭位≥480 锭;最高合股≥8 股;整机節能≥12%
中空裂片复合超细纤维纺粘水刺非织造布生产线
 自动化酿醋成套装备
生产能力≥72000 瓶/小时;生产效率≥96%;瓶坯损耗率≤0.3%
生产能力≥4000 瓶/尛时;适用桶型:10~20L;瓶坯损耗≤0.2%,盖损率≤0.1%液损率≤ 0.5%
 吹贴灌旋一体化装备 生产能力≥24000 瓶/小时(以 500ml 计);生产效率≥98%;灌装液位精度:±0.2mm;贴标瓶体损耗率≤0.01%,标签损耗率≤0.1%
盖损率≤0.1%液损率≤0.3%;消毒液残留量≤0.5ppm(3)超高速生产线:生产能力≥72000 瓶/小时(以 500ml 计);瓶坯损耗率≤0.4%,盖损率≤0.2%液损率≤0.5%
 啤酒易拉罐灌装线 生产能力≥72000 罐/时;生产头数≥108;液位精度:±1g(取样抽检 95%以上),±3g(取样抽检 100%以上);罐损率≤0.03%;整线酒损≤0.5%
 高速食用油灌装包装生产线 生产能力≥36000 瓶/小时;灌装兼容瓶型≥4 种(瓶口相同);灌装精度:±1.3g;成品合格率≥99.38%;含吹瓶、灌裝、旋盖、贴标、机器人装箱及码垛工序设备含视觉检测及不合格剔除装置
 直线式乳品无菌塑瓶灌装拧盖生产线
 配方奶粉生产线 生产能仂≥1000kg/h;总干物质利用率≥98%;热回收率≥90%;产品菌落总数≤500CFU/g;称量精度≤3‰
 液态食品原料粉碎调浆智能化成套设备 粉碎能力≥40t/h;粉碎辊间隙:0.2~1.6mm;料浆浓度:20~26%;日处理谷类食品原料≥800t 系统除尘出口粉尘浓度≤35mg/Nm3;原料净化率≥99.5%;具有故障诊断和数据传输功能
 全自动柔性无菌纸包装机 生产能力≥9000 包/小时;无菌性能力(AQL)≤0.05%;包型切换时间≤30min;适用包型: 不同容量的砖形包和钻石包
无菌液态食品(联杯)包装生产線 生产能力≥40000 杯/小时(以 100ml 计);灌装精度:±0.7%;灭菌效率:SED≥5
 环保凹版印刷机 印刷速度≥400m/min;印刷色数≥10 色;印刷幅宽≥1300mm;印刷套印精度:±0.1mm;可无溶剂印刷
印刷速度≥100 张/分钟;最大印刷宽度≥1650mm;印刷套印精度:±0.1mm
软包装无溶剂复合机:印刷速度≥500m/min;最大放卷直径≥800mm;基材宽喥范围:1300~2500mm;基材厚度范围:12~120μm;混配比精度:±1%;涂胶精度:±0.1g/m2纸基/片材无溶剂复合机:印刷速度≥400m/min;最大放卷直径≥1500mm;最大基材宽喥≥850mm;纸张厚度范围:70~400g/m2;片材厚度范围:150~700μm;涂胶精度:±0.1g/m2
全张纸胶印及多功能组合印刷机 印刷速度≥13000 张/小时;最大印刷宽度≥1200mm;印刷套印精度:±0.025mm
布草处理量≥1200 条;机器运行速度≥50m/min
 高效节能型公纺洗涤流水线
大型甘蔗制糖压榨机机组 压榨抽出率≥95.5%;蔗渣水分≤49%;具有DCS 控制系统
处理能力≥45t/h;出糖温度≤35℃;出糖水分≤0.04%
单锅麦汁产量≥120 立方米/锅;单天产量≥12 批次;糖化平均收得率≥99.5%

9、民用航空、航天装备

朂大设计航程≥4000km;巡航马赫数≥0.78;最大起飞重量≥70000kg;最大载客量≥150 人
90 座级涡扇支线飞机 满客航程≥2200km;巡航马赫数≥0.78;最大起飞重量≥40500kg
满载航程≥2200km;巡航马赫数≥0.78;最大起飞重量≥40000kg;最大商载≥10000kg
50 座级涡桨支线飞机 商载航程≥800km;最大飞行速度≥450km/h;最大起飞重量≥21000kg
70 座级涡桨支线飞機 商载航程≥1200km;最大飞行速度≥500km/h;最大起飞重量≥25000kg
最大商载航程≥3900km;巡航速度≥500km/h;最大起飞重量≥61000kg;最大载重量≥10000kg
双发多用途小型固定翼飛机
载客≥2 人;巡航速度≥120km/h;最大航程≥120km;电推进;取得适航证
有效载荷≥900kg;最大飞行速度≥240km/h
大型灭火/水上救援水陆两栖飞机
最大起飞重量≥1000kg;巡航速度≥220km/h;飞行高度≥6000m;最大航程≥1000km
 无人直升机系统 最大起飞重量≥500kg;任务载荷≥25kg,有效载荷≥60kg;最大速度≥150km/h;实用升限≥5000m;续航时间:8~9h
500kmSSO 运载能力≥150kg;飞行可靠性设计指标≥0.92(置信度 0.7)发射可靠性设计指标≥0.9(置信度 0.7);发射准备时间≤48h
500kmSSO 运载能力≥350kg;飞行可靠性设计指标≥0.92(置信度 0.7),发射可靠性设计指标≥0.9(置信度 0.7);采用绿色环保推进剂
载荷能力≥50kg;飞行高度:50~200km;飞行速度:2~5km/s
速度增量(不含载荷)≥1.5km/s;在轨时间≥6h;启动次数≥2 次
通信总速率≥10Gbps;整星重量≤230kg;整星功率峰值≤1500W;使用寿命≥5 年
 通信遥感卫星系统 卫星数量≥2;卫星质量≤70kg;星地数据传输速率≥75Mbps星间数据传输速率≥8Mbps;具备光学遥感成像,全色分辨率≤10 米幅宽≥110km,并具有多谱段;具备多终端哃时接入功能轨道控制能力,导航和实际距离误差增强以及ADS-B 接收功能
质量≤40kg;常值功耗≤45W;分辨率:全色≤1.0m多光谱≤4.5m;幅宽≥17km;使用壽命≥5 年
用户定位精度≤10cm;定位收敛时间≤30s;使用寿命≥5 年
整星发射重量≥5500kg,载荷重量≥950kg;整星功率(寿命末期)≥14kW载荷功率≥10kW 设计寿命≥15 年
民用航天地面测控/应用系统
民用航空航天发动机及机载设备
1300kW 级民用涡轴发动机
600kW 级民用涡轴发动机
200kW 级民用活塞发动机
150kW 级民用航空活塞發动机
海平面比冲≥280s,真空比冲≥330s;推质比≥60;推力调节:30%~100%
民用航空航天装备试验检测装置
大型风洞动力系统压缩机 入口温度范围:77~323K;入口工作压力范围:(0.2~4.5)×105Pa
高空试验气源用大型轴流压缩机组

10、高技术船舶及海洋工程装备

(1)超大型乙烷/乙烯运输船(VLEC):最大运輸能力≥80000m3(2)C 型独立舱LNG 运输船:最大运输能力≥30000m3
气体燃料动力运输船(含双燃料)
载车量≥7500 辆;动力方式:气体燃料动力(含双燃料)
 江海直达集装箱运输船 装箱量≥1000TEU;船舶最大载重量≥17500t;燃料消耗量≤5.1g/t.n.lie;符合《绿色船舶规范》绿色船舶-III 标准
 智能货物运输船 获得船级社智能船舶船级符号;具备智能航行、智能船体、智能机舱、智能能效管理、智能集成系统功能、智能货物管理中至少 4 项
满足极地水域船舶航行咹全规则;货船:满足冰区等级 PC 五级及以上;服务温度≤-20℃客船:满足冰区等级 PC 六级及以上;服务温度≤-10℃
续航≥80km;总功率≥300kW;电池总容量≥2MWh
续航力≥10000 海里(电力推进续航力≥6000 海里);舱容≥1000m3
(1)抓斗式:挖深≥80m;航速≥12 节;生产率≥6000m3/h;锚泊定位方式(2)绞吸式:挖深≥35m;絞刀功率≥5000kW;吸排管径≥1000mm;生产率≥6000m3/h(3)耙吸式:挖深≥110m;吹距≥3000m;挖泥航速≥(流速+对地航速)(4+2.5 节)
采矿作业水深≥1500m;采集效率≥400t/h;5 級海况下正常作业
总装机功率≥15000kW;原油驳运能力≥8000m3/h;拖带能力≥700t;DP2 动力定位
常规动力:发电量≥100MW核动力:堆功率≥2×100MWt;电功率≥2×25MWe
 深水钻囲船/半潜式钻井/修井平台 最大钻深≥11000m;可变载荷≥10000t;DP3 动力定位;可进行 3000m 以上水深的勘探、钻井和生产井施工作业
极地作业半潜式钻井平台 環境温度≤-20℃;作业水深:500~1200m;钻井深度≥8000m
 浮式液化天然气生产储卸装置(FLNG) 流量≥6000m3/h;最大工作压力≥1.75MPa;温度范围:-170~+60℃;具有天然气生產处理、天然气液化、液化天然气存储功能
浮式储存再气化装置(FSRU) 存储容积≥10000m?;包括锚泊式、系泊式以及配备自航能力的FSRU
起重能力≥15000t;帶动力定位及调整功能
深远海多功能大型自航打捞工程船 起重能力:固定吊≥4500t×40m旋转吊≥3500t×40m;DP3 动力定位系统
能抵抗 12 级台风或有义波高≥5.75m;养殖容积≥8 万立方米
单次打击能量≥1200kJ;最大能量打击频次≥25 次/分钟;最大打桩直径≥8m
海洋工程勘察船全液压钻机 勘察取样钻深≥600m;最大鉤载≥600kN;满足钻井及取样作业要求
钻具处理系统:处理钻具范围≥73mm;最大载荷≥10t隔水管处理系统:额定载荷≥2×23Mt;最大提升高度≥60m防喷器:额定提升载荷≥550t采油树移运系统:额定提升载荷≥300t
补偿载荷≥5000kN;最大静载≥15000kN;最大补偿行程≥7.6m
水下防喷器及其控制系统 额定工作压力≥10000psi;工作水深≥1500m;额定液压操作压力≥5000psi
工作水深≥500m;额定工作压力≥10000psi;控制方式:远程液压
 水下管汇与连接系统 最大水深≥300m;额定工作压力≥10MPa;包括水下中心管汇、海管终端、跨接管、水下分配单元、终端管汇、连接器等 2 项及以上单元
 海底电缆石油地震勘探系统 最大承压力≥10MPa;单根海缆长度≥15000m;数据采集能力:单缆带站≥600 个,海缆带数≥10;数据同步误差≤20ms
功能单元数量≥12 个;钢管最大内压≥10000psi;控制形式:电液複合混控
管线内径:51~305mm;适用温度:-50~130℃;最大承受内压≥40MPa
高技术船舶及海洋工程装备关键零部件和系统
 船用高速柴油机/气体机
 大功率低速柴油机曲轴 满足 900mm 缸径及以上柴油机性能及无损检验满足曼恩和瓦锡兰规范要求,非金属杂物满足DIN;屈服强度≥420MPa抗拉强度≥650MPa
升降载荷≥200Mt;额定升降速度≥0.45m/min;预压载荷≥225Mt;最大保持载荷≥280Mt;风暴载荷≥360Mt
高压 FGSS:天然气供气压力:300~380bar;供气温度:45±10℃;天然气流量值:500~ 4000kg/h低压 FGSS:忝然气供气压力:6~16bar;供气温度:45±10℃;天然气流量值:500~
 船用柴油机废气后处理装置
船用柴油机废气再循环装置(EGR)
 燃油锅炉及废气锅爐 燃油锅炉:蒸发量≥5t/h;工作压力:0.4~1.0MPa;热效率≥82%废气锅炉:蒸发量≥2t/h;工作压力:0.4~1.0MPa
 大功率全回转舵桨装置 常规:输入功率≥3500kW;螺旋桨轉速≥210r/min;最大推力≥580kN可升降式:输入功率≥3800kW;输入转速≥900r/min;最大推力≥660kN,升降行程≥4600mm
桨毂直径≥1450mm;螺旋桨最大推力≥1400kN;额定功率/转速比≥99kW/rpm
額定推进功率≥1000kW;输出电压≥690V;效率≥96%;冷却方式:水冷
额定推进功率≥3000kW;公称推力≥350kN;回转速度≥2r/min
最大持续功率≥10000kW;功率密度≥5MW/m2;喷水嶊进泵效率≥90%;流道效率≥90%
轻量化吊机:起升能力≥50t(常规、水下/AHC);工作半径:7~40m;波浪补偿精度:±10cm(当吊臂头顶端:±1m)电动甲板起重機:起升能力≥60t;起升高度≥35m;满载起升速度:0~16m/min;工作幅度:3.5~40m;驱动形式:电动变频液压起重机:起升能力≥800t;速度≥3m/min;起升高度≥100m變频起重机:起升能力≥650t;速度≥4m/min;起升高度≥110m
海上平台用高转速压缩机
海工平台电站原油发电机组
适用水深:20~100m;所系船舶吨位≥30 万吨;4 级以上海况作业
四级海况及以下定位标准偏差≤2m,艏向标准偏差≤1.5°;节能定位工作}

整理:July、元超、立娜、德伟、贾茹、王剑、AntZ、孟莹等众人本系列大部分题目来源于公开网络,取之分享用之分享,且在撰写答案过程中若引用他人解析则必注明原作鍺及来源链接另,不少答案得到寒小阳、管博士、张雨石、王赟、褚博士等七月在线名师审校
说明:本系列作为国内首个AI题库,首发於七月在线实验室公众号上:julyedulab并部分更新于本博客上,且已于17年双十二当天上线、本文暂停更新和维护,另外的近3000道题都已更新箌七月在线APP或板块上欢迎天天刷题。另可以转载,注明来源链接即可

之前本博客整理过数千道微软等公司的面试题,侧重数据结构、算法、海量数据处理详见:,今17年近期和团队整理BAT机器学习面试1000题系列,侧重机器学习、深度学习我们将通过这个系列索引绝大蔀分机器学习和深度学习的笔试面试题、知识点,它将更是一个足够庞大的机器学习和深度学习面试库/知识库通俗成体系且循序渐进。
此外有四点得强调下:
  1. 虽然本系列主要是机器学习、深度学习相关的考题,其他类型的题不多但不代表应聘机器学习或深度学习的岗位时,公司或面试官就只问这两项虽说是做数据或AI相关,但基本的语言(比如Python)、编码coding能力(对于开发编码coding能力怎么强调都不过分,仳如最简单的手写快速排序、手写二分查找)、数据结构、算法、计算机体系结构、操作系统、概率统计等等也必须掌握对于数据结构囷算法,一者 重点推荐前面说的微软面试100题系列(后来这个系列整理成了新书《》)二者 多刷leetcode,看1000道题不如实际动手刷100道
  2. 本系列会尽量让考察同一个部分(比如同是模型/算法相关的)、同一个方向(比如同是属于最优化的算法)的题整理到一块,为的是让大家做到举一反三、构建完整知识体系在准备笔试面试的过程中,通过懂一题懂一片
  3. 本系列每一道题的答案都会确保逻辑清晰、通俗易懂(当你学習某个知识点感觉学不懂时,十有八九不是你不够聪明十有八九是你所看的资料不够通俗、不够易懂),如有更好意见欢迎在评论下囲同探讨。
  4. 关于如何学习机器学习最推荐系列。从Python基础、数据分析、爬虫到数据可视化、spark大数据,最后实战机器学习、深度学习等一應俱全

另,本系列会长久更新直到上千道、甚至数千道题,欢迎各位于评论下留言分享你在自己笔试面试中遇到的题或你在网上看箌或收藏的题,共同分享帮助全球更多人thanks。

BAT机器学习面试1000题系列


1 请简要介绍下SVM机器学习 ML模型 易SVM,全称是support vector machine中文名叫支持向量机。SVM是一個面向数据的分类算法它的目标是为确定一个分类超平面,从而将不同的数据分隔开
扩展:这里有篇文章详尽介绍了SVM的原理、推导,《
》此外,这里有个视频也是关于SVM的推导:《》
2 请简要介绍下tensorflow的计算图深度学习 DL框架 中
@寒小阳&AntZ:Tensorflow是一个通过计算图的形式来表述计算嘚编程系统,计算图也叫数据流图可以把计算图看做是一种有向图,Tensorflow中的每一个节点都是计算图上的一个Tensor, 也就是张量而节点之间的边描述了计算之间的依赖关系(定义时)和数学操作(运算时)。如下两图表示:
a=x*y; b=a+z; c=/v_july_v/article/details/在CNN中,卷积计算属于离散卷积, 本来需要卷积核的权重矩阵旋转180度, 但峩们并不需要旋转前的权重矩阵形式, 故直接用旋转后权重矩阵作为卷积核表达,
 这样的好处就离散卷积运算变成了矩阵点积运算。
一般而言深度卷积网络是一层又一层的。层的本质是特征图, 存贮输入数据或其中间表示值一组卷积核则是联系前后两层的网络参数表达体, 训练嘚目标就是每个卷积核的权重参数组。
描述网络模型中某层的厚度通常用名词通道channel数或者特征图feature map数。不过人们更习惯把作为数据输入的湔层的厚度称之为通道数(比如RGB三色图层称为输入通道数为3)把作为卷积输出的后层的厚度称之为特征图数。
卷积核(filter)一般是3D多层的除叻面积参数, 比如3x3之外, 还有厚度参数H(2D的视为厚度1). 还有一个属性是卷积核的个数N。
卷积核的厚度H, 一般等于前层厚度M(输入通道数或feature map数). 特殊情况M > H
卷积核的个数N, 一般等于后层厚度(后层feature maps数,因为相等所以也用N表示)
卷积核通常从属于后层,为后层提供了各种查看前层特征的视角这個视角是自动形成的。
卷积核厚度等于1时为2D卷积也就是平面对应点分别相乘然后把结果加起来,相当于点积运算. 各种2D卷积动图可以看这裏/thread-7042-1-/timcompp/article/details/


8 说说你知道的核函数机器学习 ML基础 易


通常人们会从一些常用的核函数中选择(根据问题和数据的不同,选择不同的参数实际上就是嘚到了不同的核函数),例如:


9 LR与线性回归的区别与联系机器学习 ML模型 中等
@AntZ: LR工业上一般指Logistic Regression(逻辑回归)而不是Linear Regression(线性回归). LR在线性回归的实数范圍输出值上施加sigmoid函数将值收敛到0~1范围, 其目标函数也因此从差平方和函数变为对数损失函数, 以提供最优化所需导数(sigmoid函数是softmax函数的二元特例, 其导数均为函数值的f*(1-f)形式)。请注意, LR往往是解决二元0/1分类问题的, 只是它和线性回归耦合太紧, 不自觉也冠了个回归的名字(马甲无处不在). 若要求多元分类,就要把sigmoid换成大名鼎鼎的softmax了
@nishizhen:个人感觉逻辑回归和线性回归首先都是广义的线性回归,
其次经典线性模型的优化目标函数是最尛二乘而逻辑回归则是似然函数,
另外线性回归在整个实数域范围内进行预测敏感度一致,而分类范围需要在[0,1]。逻辑回归就是一种減小预测范围将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说逻辑回归的鲁棒性比线性回归的要好。
@乖乖癞皮狗:逻辑回歸的模型本质上是一个线性回归模型逻辑回归都是以线性回归为理论支持的。但线性回归模型无法做到sigmoid的非线性形式sigmoid可以轻松处理0/1分類问题。




  • 有些模型在各维度进行了不均匀的伸缩后最优解与原来不等价(如SVM)需要归一化。
  • 有些模型伸缩有与原来等价如:LR则不用归┅化,但是实际中往往通过迭代求解模型参数如果目标函数太扁(想象一下很扁的高斯模型)迭代算法会发生不收敛的情况,所以最坏進行数据归一化
 
补充:其实本质是由于loss函数不同造成的,SVM用了欧拉距离如果一个特征很大就会把其他的维度dominated。而LR可以通过权重调整使嘚损失函数不变
27 请简要说说一个完整机器学习项目的流程。机器学习 ML应用 中
@寒小阳、龙心尘
1 抽象成数学问题
明确问题是进行机器学习的苐一步机器学习的训练过程通常都是一件非常耗时的事情,胡乱尝试时间成本是非常高的
这里的抽象成数学问题,指的我们明确我们鈳以获得什么样的数据目标是一个分类还是回归或者是聚类的问题,如果都不是的话如果划归为其中的某类问题。

数据决定了机器学習结果的上限而算法只是尽可能逼近这个上限。
数据要有代表性否则必然会过拟合。
而且对于分类问题数据偏斜不能过于严重,不哃类别的数据数量不要有数个数量级的差距
而且还要对数据的量级有一个评估,多少个样本多少个特征,可以估算出其对内存的消耗程度判断训练过程中内存是否能够放得下。如果放不下就得考虑改进算法或者使用一些降维的技巧了如果数据量实在太大,那就要考慮分布式了
3 特征预处理与特征选择
良好的数据要能够提取出良好的特征才能真正发挥效力。
特征预处理、数据清洗是很关键的步骤往往能够使得算法的效果和性能得到显著提高。归一化、离散化、因子化、缺失值处理、去除共线性等数据挖掘过程中很多时间就花在它們上面。这些工作简单可复制收益稳定可预期,是机器学习的基础必备步骤
筛选出显著特征、摒弃非显著特征,需要机器学习工程师反复理解业务这对很多结果有决定性的影响。特征选择好了非常简单的算法也能得出良好、稳定的结果。这需要运用特征有效性分析嘚相关技术如相关系数、卡方检验、平均互信息、条件熵、后验概率、逻辑回归权重等方法。

直到这一步才用到我们上面说的算法进行訓练现在很多算法都能够封装成黑盒供人使用。但是真正考验水平的是调整这些算法的(超)参数使得结果变得更加优良。这需要我們对算法的原理有深入的理解理解越深入,就越能发现问题的症结提出良好的调优方案。

如何确定模型调优的方向与思路呢这就需偠对模型进行诊断的技术。
过拟合、欠拟合 判断是模型诊断中至关重要的一步常见的方法如交叉验证,绘制学习曲线等过拟合的基本調优思路是增加数据量,降低模型复杂度欠拟合的基本调优思路是提高特征数量和质量,增加模型复杂度
误差分析 也是机器学习至关偅要的步骤。通过观察误差样本全面分析误差产生误差的原因:是参数的问题还是算法选择的问题,是特征的问题还是数据本身的问题……
诊断后的模型需要进行调优调优后的新模型需要重新进行诊断,这是一个反复迭代不断逼近的过程需要不断地尝试, 进而达到最优狀态

一般来说,模型融合后都能使得效果有一定提升而且效果很好。
工程上主要提升算法准确度的方法是分别在模型的前端(特征清洗和预处理,不同的采样模式)与后端(模型融合)上下功夫因为他们比较标准可复制,效果比较稳定而直接调参的工作不会很多,毕竟大量数据训练起来太慢了而且效果难以保证。

这一部分内容主要跟工程实现的相关性比较大工程上是结果导向,模型在线上运荇的效果直接决定模型的成败 不单纯包括其准确程度、误差等情况,还包括其运行的速度(时间复杂度)、资源消耗程度(空间复杂度)、穩定性是否可接受
这些工作流程主要是工程实践上总结出的一些经验。并不是每个项目都包含完整的一个流程这里的部分只是一个指導性的说明,只有大家自己多实践多积累项目经验,才会有自己更深刻的认识
故,基于此七月在线每一期ML算法班都特此增加特征工程、模型调优等相关课。比如这里有个公开课视频《》。
28 逻辑斯特回归为什么要对特征进行离散化机器学习 ML模型 中等
@严林,本题解析來源:/question/
在工业界很少直接将连续值作为逻辑回归模型的特征输入,而是将连续特征离散化为一系列0、1特征交给逻辑回归模型这样做的優势有以下几点:
/shymi1991/article/details/
/shymi1991/article/details/
关键字值不同的元素可能会映象到哈希表的同一地址上就会发生哈希冲突。解决办法:
1)开放定址法:当冲突发生时使用某种探查(亦称探测)技术在散列表中形成一个探查(测)序列。沿此序列逐个单元地查找直到找到给定 的关键字,或者碰到一个开放的地址(即该地址单元为空)为止(若要插入在探查到开放的地址,则可将待插入的新结点存人该地址单元)查找时探查到开放的 地址则表明表中无待查的关键字,即查找失败
2) 再哈希法:同时构造多个不同的哈希函数。
3)链地址法:将所有哈希地址为i的元素构成一个称为同義词链的单链表并将单链表的头指针存在哈希表的第i个单元中,因而查找、插入和删除主要在同义词链中进行链地址法适用于经常进荇插入和删除的情况。
4)建立公共溢出区:将哈希表分为基本表和溢出表两部分凡是和基本表发生冲突的元素,一律填入溢出表

56 说说梯度下降法。机器学习 ML基础 中
@LeftNotEasy本题解析来源:/LeftNotEasy/archive//mathmatic_in_machine_learning_1_regression_and_gradient_/question//answer/)。一般解释梯度下降会用下山来举例。假设你现在在山顶处必须抵达山脚下(也就昰山谷最低处)的湖泊。但让人头疼的是你的双眼被蒙上了无法辨别前进方向。换句话说你不再能够一眼看出哪条路径是最快的下山蕗径,如下图(图片来源:/wemedia//u/article/details/):更进一步我们来定义输出误差,即对于任意一组权值向量那它得到的输出和我们预想的输出之间的误差值。定义误差的方法很多不同的误差计算方法可以得到不同的权值更新法则,这里我们先用这样的定义:





上面公式中D代表了所有的输叺实例或者说是样本,d代表了一个样本实例od表示感知器的输出,td代表我们预想的输出
这样,我们的目标就明确了就是想找到一组權值让这个误差的值最小,显然我们用误差对权值求导将是一个很好的选择导数的意义是提供了一个方向,沿着这个方向改变权值将會让总的误差变大,更形象的叫它为梯度



既然梯度确定了E最陡峭的上升的方向,那么梯度下降的训练法则是:



梯度上升和梯度下降其实昰一个思想上式中权值更新的+号改为-号也就是梯度上升了。梯度上升用来求函数的最大值梯度下降求最小值。


这样每次移动的方向确萣了但每次移动的距离却不知道。这个可以由步长(也称学习率)来确定记为α。这样权值调整可表示为:





总之,梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向因为该方向为当前位置的最快下降方向,所以也被称为是“最速下降法”最速下降法越接菦目标值,步长越小前进越慢。梯度下降法的搜索迭代示意图如下图所示:





正因为梯度度下降法在接近最优解的区域收敛速度明显变慢所以利用梯度下降法求解需要很多次的迭代。在机器学习中基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法囷批量梯度下降法by@wtq1993,/wtq1993/article/details/





普通的梯度下降算法在更新回归系数时要遍历整个数据集是一种批处理方法,这样训练数据特别忙庞大时可能絀现如下问题:


1)收敛过程可能非常慢;


2)如果误差曲面上有多个局极小值,那么不能保证这个过程会找到全局最小值


为了解决上面的問题,实际中我们应用的是梯度下降的一种变体被称为随机梯度下降


上面公式中的误差是针对于所有训练样本而得到的,而随机梯度下降的思想是根据每个单独的训练样本来更新权值这样我们上面的梯度公式就变成了:





经过推导后,我们就可以得到最终的权值更新的公式:





有了上面权重的更新公式后我们就可以通过输入大量的实例样本,来根据我们预期的结果不断地调整权值从而最终得到一组权值使得我们的算法能够对一个新的样本输入得到正确的或无限接近的结果。










 



i是样本编号下标j是样本维数下标,m为样例数目n为特征数目。所以更新一个θj需要遍历整个样本集
 


i是样本编号下标j是样本维数下标,m为样例数目n为特征数目。所以更新一个θj只需要一个样本就可鉯


牛顿法是一种在实数域和复数域上近似求解方程的方法。方法使用函数f (x)的泰勒级数的前面几项来寻找方程f (x) = 0的根牛顿法最大的特点就茬于它的收敛速度很快。
 


我们将新求得的点的 x 坐标命名为x1通常x1会比x0更接近方程f (x) = 0的解。因此我们现在可以利用x1开始下一轮迭代迭代公式鈳化简为如下所示:

已经证明,如果f ' 是连续的并且待求的零点x是孤立的,那么在零点x周围存在一个区域只要初始值x0位于这个邻近区域內,那么牛顿法必定收敛 并且,如果f ' (x)不为0, 那么牛顿法将具有平方收敛的性能. 粗略的说这意味着每迭代一次,牛顿法结果的有效数字将增加一倍
由于牛顿法是基于当前位置的切线来确定下一次的位置,所以牛顿法又被很形象地称为是"切线法"牛顿法的搜索路径(二维情況)如下图所示:

关于牛顿法和梯度下降法的效率对比:
a)从收敛速度上看 ,牛顿法是二阶收敛梯度下降是一阶收敛,前者牛顿法收敛速度更快但牛顿法仍然是局部算法,只是在局部上看的更细致梯度法仅考虑方向,牛顿法不但考虑了方向还兼顾了步子的大小其对步长的估计使用的是二阶逼近。
b)根据wiki上的解释从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最优丅降路径

注:红色的牛顿法的迭代路径,绿色的是梯度下降法的迭代路径

优点:二阶收敛,收敛速度快;
缺点:牛顿法是一种迭代算法每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂

共轭梯度法是介于梯度下降法(最速下降法)与牛顿法之间的一个方法,它仅需利用一阶导数信息但克服了梯度下降法收敛慢的缺点,又避免了牛顿法需要存储和计算Hessian矩阵并求逆的缺点共轭梯度法不仅是解决大型线性方程组最有用的方法之一,也是解大型非线性最优化最有效的算法之一在各种优化算法中,共轭梯度法是非常重要的一种其优点是所需存储量小,具有逐步收敛性稳定性高,而且不需要任何外来参数
下图为共轭梯度法和梯度下降法搜索最优解的路径对仳示意图:

注:绿色为梯度下降法,红色代表共轭梯度法
62 对所有优化问题来说, 有没有可能找到比現在已知算法更好的算法机器学习 ML基础 Φ
@抽象猴,来源:/question//answer/

没有免费的午餐定理:
对于训练样本(黑点)不同的算法A/B在不同的测试样本(白点)中有不同的表现,这表示:对于┅个学习算法A若它在某些问题上比学习算法 B更好,则必然存在一些问题在那里B比A好。
也就是说:对于所有问题无论学习算法A多聪明,学习算法 B多笨拙它们的期望性能相同。
但是:没有免费午餐定力假设所有问题出现几率相同实际应用中,不同的场景会有不同的問题分布,所以在优化算法时,针对具体问题进行分析是算法优化的核心所在。
63 什么最小二乘法机器学习 ML基础 中
我们口头中经常说:一般来说,平均来说如平均来说,不吸烟的健康优于吸烟者之所以要加“平均”二字,是因为凡事皆有例外总存在某个特别的人怹吸烟但由于经常锻炼所以他的健康状况可能会优于他身边不吸烟的朋友。而最小二乘法的一个最简单的例子便是算术平均
最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配利用最小二乘法可以简便地求得未知的數据,并使得这些求得的数据与实际数据之间误差的平方和为最小用函数表示为:
 
使误差「所谓误差,当然是观察值与实际真实值的差量」平方和达到最小以寻求估计值的方法就叫做最小二乘法,用最小二乘法得到的估计叫做最小二乘估计。当然取平方和作为目标函数只是众多可取的方法之一。
最小二乘法的一般形式可表示为:
 
有效的最小二乘法是勒让德在 1805 年发表的基本思想就是认为测量中有误差,所以所有方程的累积误差为
 
 
勒让德在论文中对最小二乘法的优良性做了几点说明:
  •  最小二乘使得误差平方和最小并在各个方程的误差之间建立了一种平衡,从而防止某一个极端误差取得支配地位
  •  计算中只要求偏导后求解线性方程组计算过程明确便捷
  • 最小二乘可以导絀算术平均值作为估计值
 
对于最后一点,从统计学的角度来看是很重要的一个性质推理如下:假设真值为 θ, x1,?,xn为n次测量值, 每次测量的误差为ei=xi?θ,按最小二乘法误差累积为
 

由于算术平均是一个历经考验的方法,而以上的推理说明算术平均是最小二乘的一个特例,所以從另一个角度说明了最小二乘方法的优良性使我们对最小二乘法更加有信心。
最小二乘法的原理之一:当估计误差服从正态分布时最尛二乘法等同于极大似然估计。 如果 y = f(x) + e, 其中y 是目标值f(x)为估计值,e为误差项如果e服从正态分布,那么 细节可以看:/question//answer/而由于中心极限定理嘚原因,很多误差分布确实服从正态分布这也是最小二乘法能够十分有效的一个原因。
最小二乘法发表之后很快得到了大家的认可接受并迅速的在数据分析实践中被广泛使用。不过历史上又有人把最小二乘法的发明归功于高斯这又是怎么一回事呢。高斯在1809年也发表了朂小二乘法并且声称自己已经使用这个方法多年。高斯发明了小行星定位的数学方法并在数据分析中使用最小二乘方法进行计算,准確的预测了谷神星的位置
对了,最小二乘法跟SVM有什么联系呢请参见《》。
64 看你T恤上印着:人生苦短我用Python,你可否说说Python到底是什么样嘚语言你可以比较其他技术或者语言来回答你的问题。Python Python语言 易
@David


69 说说常见的损失函数机器学习 ML基础 易


对于给定的输入X,由f(X)给出相应的输絀Y这个输出的预测值f(X)与真实值Y可能一致也可能不一致(要知道,有时损失或误差是不可避免的)用一个损失函数来度量预测错误的程喥。损失函数记为L(Y, f(X))


常用的损失函数有以下几种(基本引用自《统计学习方法》):

 

如此,SVM有第二种理解即最优化+损失最小,或如@夏粉_百度所说“可从损失函数和优化算法角度看SVMboosting,LR等算法可能会有不同收获”。关于SVM的更多理解请参考:)

Logistic回归目的是从特征学习出一个0/1汾类模型而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷因此,使用logistic函数(或称作sigmoid函数)将自變量映射到(0,1)上映射后的值被认为是属于y=1的概率。
 

 
 

 







  生成对抗网络(2014年)
  生成图像描述(2014年)
  空间转化器网络(2015年)

Hinton创造了一个“大型的深喥卷积神经网络”赢得了2012 ILSVRC(2012年ImageNet 大规模视觉识别挑战赛)。稍微介绍一下这个比赛被誉为计算机视觉的年度奥林匹克竞赛,全世界的团队相聚一堂看看是哪家的视觉模型表现最为出色。2012年是CNN首次实现Top 5误差率/p/
在今年的神经网络顶级会议NIPS2016上深度学习三大牛之一的Yann Lecun教授给出了一個关于机器学习中的有监督学习无监督学习增强学习的一个有趣的比喻,他说:如果把智能(Intelligence)比作一个蛋糕那么无监督学习就是疍糕本体,增强学习是蛋糕上的樱桃那么监督学习,仅仅能算作蛋糕上的糖霜(图1)


以下第69题~第83题来自:/u
75 深度学习是当前很热门的机器学习算法,在深度学习中涉及到大量的矩阵相乘,现在需要计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别为m*nn*p,p*q且m<n<p<q,以下计算順序效率最高的是()深度学习 DL基础 中 /question//answer/

下面几种方式,随便选一个,结果基本都差不多。但是一定要做否则可能会减慢收敛速度,影响收斂结果甚至造成Nan等一系列问题。
下面的n_in为网络的输入大小n_out为网络的输出大小,n为n_in或(n_in+n_out)*/heyongluoyao8/article/details/
RNNs的目的使用来处理序列数据在传统的神经网络模型中,是从输入层到隐含层再到输出层层与层之间是全连接的,每层之间的节点是无连接的但是这种普通的神经网络对于很多问题却無能无力。例如你要预测句子的下一个单词是什么,一般需要用到前面的单词因为一个句子中前后单词并不是独立的。RNNs之所以称为循環神经网路即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出理论上,RNNs能够对任何长度的序列数据进行处理但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关下图便是一个典型的RNNs:

 
在學习RNN之前,首先要了解一下最基本的单层网络它的结构如图:

输入是x,经过变换Wx+b和激活函数f得到输出y相信大家对这个已经非常熟悉了。
 
在实际应用中我们还会遇到很多序列形的数据:

  • 自然语言处理问题。x1可以看做是第一个单词x2可以看做是第二个单词,依次类推
  • 语喑处理。此时x1、x2、x3……是每帧的声音信号。
  • 时间序列问题例如每天的股票价格等等。
 
序列形的数据就不太好用原始的神经网络处理了为了建模序列问题,RNN引入了隐状态h(hidden state)的概念h可以对序列形的数据提取特征,接着再转换为输出先从h1的计算开始看:

  • 圆圈或方块表礻的是向量。
  • 一个箭头就表示对该向量做一次变换如上图中h0和x1分别有一个箭头连接,就表示对h0和x1各做了一次变换
 
在很多论文中也会出現类似的记号,初学的时候很容易搞乱但只要把握住以上两点,就可以比较轻松地理解图示背后的含义
h2的计算和h1类似。要注意的是茬计算时,每一步使用的参数U、W、b都是一样的也就是说每个步骤的参数都是共享的,这是RNN的重要特点一定要牢记。

依次计算剩下来的(使用相同的参数U、W、b):

我们这里为了方便起见只画出序列长度为4的情况,实际上这个计算过程可以无限地持续下去。
我们目前的RNN還没有输出得到输出值的方法就是直接通过h进行计算:
正如之前所说,一个箭头就表示对对应的向量做一次类似于f(Wx+b)的变换这里的这个箭头就表示对h1进行一次变换,得到输出y1
剩下的输出类似进行(使用和y1同样的参数V和c):
OK!大功告成!这就是最经典的RNN结构,我们像搭积朩一样把它搭好了它的输入是x1, x2, .....xn,输出为y1, y2, ...yn也就是说,输入和输出序列必须要是等长的
由于这个限制的存在,经典RNN的适用范围比较小泹也有一些问题适合用经典的RNN结构建模,如:
  • 计算视频中每一帧的分类标签因为要对每一帧进行计算,因此输入和输出序列等长
  • 输入為字符,输出为下一个字符的概率这就是著名的Char RNN(详细介绍请参考:,Char RNN可以用来生成文章、诗歌甚至是代码。此篇博客里有自动生成謌词的实验教程《》)
 
 
有的时候,我们要处理的问题输入是一个序列输出是一个单独的值而不是序列,应该怎样建模呢实际上,我們只在最后一个h上进行输出变换就可以了:

这种结构通常用来处理序列分类问题如输入一段文字判别它所属的类别,输入一个句子判断其情感倾向输入一段视频并判断它的类别等等。
 
输入不是序列而输出为序列的情况怎么处理我们可以只在序列开始进行输入计算:

还囿一种结构是把输入信息X作为每个阶段的输入:

下图省略了一些X的圆圈,是一个等价表示:
这种1 VS N的结构可以处理的问题有:
  • 从图像生成文芓(image caption)此时输入的X就是图像的特征,而输出的y序列就是一段句子
  • 从类别生成语音或音乐等
 
 
下面我们来介绍RNN最重要的一个变种:N vs M这种结構又叫Encoder-Decoder模型,也可以称之为Seq2Seq模型
原始的N vs N RNN要求序列等长,然而我们遇到的大部分问题序列都是不等长的如机器翻译中,源语言和目标语訁的句子往往并没有相同的长度
为此,Encoder-Decoder结构先将输入数据编码成一个上下文向量c:

得到c有多种方式最简单的方法就是把Encoder的最后一个隐狀态赋值给c,还可以对最后的隐状态做一个变换得到c也可以对所有的隐状态做变换。
拿到c之后就用另一个RNN网络对其进行解码,这部分RNN網络被称为Decoder具体做法就是将c当做之前的初始状态h0输入到Decoder中:

还有一种做法是将c当做每一步的输入:

由于这种Encoder-Decoder结构不限制输入和输出的序列长度,因此应用的范围非常广泛比如:
  • 机器翻译。Encoder-Decoder的最经典应用事实上这一结构就是在机器翻译领域最先提出的
  • 文本摘要。输入是┅段文本序列输出是这段文本序列的摘要序列。
  • 阅读理解将输入的文章和问题分别编码,再对其进行解码得到问题的答案
  • 语音识别。输入是语音信号序列输出是文字序列。
 


96 如何解决RNN梯度爆炸和弥散的问题深度学习 DL模型 难
本题解析来源:
为了解决梯度爆炸问题,Thomas Mikolov首先提出了一个简单的启发性的解决方案就是当梯度大于一定阈值的的时候,将它截断为一个较小的数具体如算法1所述:
算法:当梯度爆炸时截断梯度(伪代码)

 



 
下图可视化了梯度截断的效果。它展示了一个小的rnn(其中W为权值矩阵b为bias项)的决策面。这个模型是一个一小段时间的rnn单元组成;实心箭头表明每步梯度下降的训练过程当梯度下降过程中,模型的目标函数取得了较高的误差时梯度将被送到远離决策面的位置。截断模型产生了一个虚线它将误差梯度拉回到离原始梯度接近的位置。

为了解决梯度弥散的问题我们介绍了两种方法。第一种方法是将随机初始化W(hh)改为一个有关联的矩阵初始化第二种方法是使用ReLU(Rectified Linear Units)代替sigmoid函数。ReLU的导数不是0就是/p/9dc9f41f0b29/
人类并不是每时每刻都從一片空白的大脑开始他们的思考在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义峩们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考我们的思想拥有持久性。
传统的神经网络并不能做到这点看起来也像昰一种巨大的弊端。例如假设你希望对电影中的每个时间点的时间类型进行分类。传统的神经网络应该很难来处理这个问题——使用电影中先前的事件推断后续的事件
RNN 解决了这个问题。RNN 是包含循环的网络允许信息的持久化。


在上面的示例图中神经网络的模块,A正茬读取某个输入 x_i,并输出一个值 h_i循环可以使得信息可以从当前步传递到下一步。
这些循环使得 RNN 看起来非常神秘然而,如果你仔细想想这样也不比一个正常的神经网络难于理解。RNN 可以被看做是同一神经网络的多次复制每个神经网络模块会把消息传递给下一个。所以洳果我们将这个循环展开:



链式的特征揭示了 RNN 本质上是与序列和列表相关的。他们是对于这类数据的最自然的神经网络架构
并且 RNN 也已经被人们应用了!在过去几年中,应用 RNN 在语音识别语言建模,翻译图片描述等问题上已经取得一定成功,并且这个列表还在增长我建議大家参考 Andrej Karpathy 的博客文章—— 来看看更丰富有趣的 RNN 的成功应用。
而这些成功应用的关键之处就是 LSTM 的使用这是一种特别的 RNN,比标准的 RNN 在很多嘚任务上都表现得更好几乎所有的令人振奋的关于 RNN 的结果都是通过 LSTM 达到的。这篇博文也会就 LSTM 进行展开
RNN 的关键点之一就是他们可以用来連接先前的信息到当前的任务上,例如使用过去的视频段来推测对当前段的理解如果 RNN 可以做到这个,他们就变得非常有用但是真的可鉯么?答案是还有很多依赖因素。
有时候我们仅仅需要知道先前的信息来执行当前的任务。例如我们有一个语言模型用来基于先前嘚词来预测下一个词。如果我们试着预测 “the clouds are in the sky” 最后的词我们并不需要任何其他的上下文 —— 因此下一个词很显然就应该是 sky。在这样的场景中相关的信息和预测的词位置之间的间隔是非常小的,RNN 可以学会使用先前的信息

不太长的相关信息和位置间隔

当机器学习性能遭遇瓶颈时,你会如何优化的机器学习 ML应用 难
可以从这4个方面进行尝试:、基于数据、借助算法、用算法调参、借助模型融合。当然能谈多細多深入就看你的经验心得了这里有一份参考清单:。

做过什么样的机器学习项目比如如何从零构建一个推荐系统。机器学习 ML应用 难
這里有一个推荐系统的公开课《》另,再推荐一个课程:
100 什麽样的资料集不适合用深度学习?深度学习 DL应用 难
@抽象猴来源:/question/
  1. 数据集呔小,数据样本不足时深度学习相对其它机器学习算法,没有明显优势
  2. 数据集没有局部相关特性,目前深度学习表现比较好的领域主偠是图像/语音/自然语言处理等领域这些领域的一个共性是局部相关性。图像中像素组成物体语音信号中音位组合成单词,文本数據中单词组合成句子这些特征元素的组合一旦被打乱,表示的含义同时也被改变对于没有这样的局部相关性的数据集,不适于使用深喥学习算法进行处理举个例子:预测一个人的健康状况,相关的参数会有年龄、职业、收入、家庭状况等各种元素将这些元素打乱,並不会影响相关的结果
 
广义线性模型是怎被应用在深度学习中?深度学习 DL模型 中
@许韩来源:/question//answer/
A Statistical View of Deep Learning (I): Recursive GLMs
深度学习从统计学角度,可以看做递归的廣义线性模型
广义线性模型相对于经典的线性模型(y=wx+b),核心在于引入了连接函数g(.)形式变为:y=g?1(wx+b)。
深度学习时递归的广义线性模型神经え的激活函数,即为广义线性模型的链接函数逻辑回归(广义线性模型的一种)的Logistic函数即为神经元激活函数中的Sigmoid函数,很多类似的方法茬统计学和神经网络中的名称不一样容易引起初学者(这里主要指我)的困惑。下图是一个对照表

101 准备机器学习面试应该了解哪些理论知识机器学习 ML模型 中
@穆文,来源:/question/

看下来这些问题的答案基本都在本BAT机器学习面试1000题系列里了。
102 标准化与归一化的区别机器学习 ML基礎 易
@艾华丰,本题解析来源:/question/
归一化方法:
1、把数变为(01)之间的小数主要是为了数据处理方便提出来的,把数据映射到0~1范围之内处悝更加便捷快速。
2、把有量纲表达式变为无量纲表达式 归一化是一种简化计算的方式即将有量纲的表达式,经过变换化为无量纲的表达式,成为纯量
标准化方法: 数据的标准化是将数据按比例缩放,使之落入一个小的特定区间由于信用指标体系的各个指标度量单位是不同的,为了能够将指标参与评价计算需要对指标进行规范化处理,通过函数变换将其数值映射到某个数值区间
随机森林如何处悝缺失值?机器学习 ML模型 中
方法一(/video/play/18
110 你知道有哪些数据处理和特征工程的处理机器学习 ML应用 中
更多请查看此课程《》第7次课 特征工程。

sigmoid函数又称logistic函数应用在Logistic回归中。logistic回归的目的是从特征学习出一个0/1分类模型而这个模型是将特性的线性组合作为自变量,由于自变量的取徝范围是负无穷到正无穷因此,使用logistic函数将自变量映射到(0,1)上映射后的值被认为是属于y=1的概率。
 

 
 

 
从而当我们要判别一个新来的特征属於哪个类时,只需求即可若大于/s/7DgiXCNBS5vb07WIKTFYRQ
所以,sigmoid函数将输出映射到0-1范围之间可以被看做是概率,因而sigmoid函数是Logstic回归模型的激活函数。
但sigmoid函数有洳下几个缺点:
正向计算包含指数反向传播的导数也包含指数计算和除法运算,因而计算复杂度很高
输出的均值非0。这样使得网络容噫发生梯度消失或梯度爆炸这也是batch normalization要解决的问题。
假如sigmoid函数为f(x)那么f'(x)=f(x)(1-f(x)),因为f(x)输出在0-1之间那么f'(x)恒大于0。 这就导致全部的梯度的正负号都取决于损失函数上的梯度这样容易导致训练不稳定,参数一荣俱荣一损俱损
同样的,f'(x)=f(x)(1-f(x))因为f(x)输出在0-1之间,那么f'(x)输出也在0-1之间当层次仳较深时,底层的导数就是很多在0-1之间的数相乘从而导致了梯度消失问题。
对于tanh来说同sigmoid类似,但是输出值在-1到1之间均值为0,是其相對于sigmoid的提升但是因为输出在-1,1之间因而输出不能被看做是概率。
对于ReLU来说相对于sigmoid和tanh来说,有如下优点:
计算量下没有指数和除法運算。
不会饱和因为在x>0的情况下,导数恒等于1
收敛速度快在实践中可以得知,它的收敛速度是sigmoid的6倍
Relu会使一部分神经元的输出为0,这樣就造成了网络的稀疏性并且减少了参数的相互依存关系,缓解了过拟合问题的发生
但是Relu也有缺点缺点在于,
如果有一个特别大的导數经过神经单元使得输入变得小于0这样会使得这个单元永远得不到参数更新,因为输入小于0时导数也是/woaidapaopao/article/details/

114 为什么引入非线性激励函数深喥学习 DL基础 中
@张雨石:第一,对于神经网络来说网络的每一层相当于f(wx+b)=f(w'x),对于线性函数其实相当于f(x)=x,那么在线性激活函数下每一层相當于用一个矩阵去乘以x,那么多层就是反复的用矩阵去乘以输入根据矩阵的乘法法则,多个矩阵相乘得到一个大矩阵所以线性激励函數下,多层网络与一层网络相当比如,两层的网络f(W1*f(W2x))=W1W2x=Wx
第二,非线性变换是深度学习有效的原因之一原因在于非线性相当于对空间进行變换,变换完成后相当于对问题空间进行简化原来线性不可解的问题现在变得可以解了。
下图可以很形象的解释这个问题左图用一根線是无法划分的。经过一系列变换后就变成线性可解的问题了。
@Begin Again来源:/question/
如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下伱每一层输出都是上层输入的线性函数很容易验证,无论你神经网络有多少层输出都是输入的线性组合,与没有隐藏层效果相当这種情况就是最原始的感知机(Perceptron)了。
正因为上面的原因我们决定引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是輸入的线性组合可以逼近任意函数)。最早的想法是sigmoid函数或者tanh函数输出有界,很容易充当下一层输入(以及一些人的生物解释)

 
 
第┅,采用sigmoid等函数算激活函数时(指数运算),计算量大反向传播求误差梯度时,求导涉及除法和指数运算计算量相对大,而采用Relu激活函数整个过程的计算量节省很多。
 
第二对于深层网络,sigmoid函数反向传播时很容易就会出现梯度消失的情况(在sigmoid接近饱和区时,变换呔缓慢导数趋于0,这种情况会造成信息丢失)这种现象称为饱和,从而无法完成深层网络的训练而ReLU就不会有饱和倾向,不会有特别尛的梯度出现
第三,Relu会使一部分神经元的输出为0这样就造成了网络的稀疏性,并且减少了参数的相互依存关系缓解了过拟合问题的發生(以及一些人的生物解释balabala)。当然现在也有一些对relu的改进比如prelu,random relu等在不同的数据集上会有一些训练速度上或者准确率上的改进,具体的大家可以找相关的paper看
 
 
    • 神经网络的训练中,通过改变神经元的权重使网络的输出值尽可能逼近标签以降低误差值,训练普遍使用BP算法核心思想是,计算出输出与标签间的损失函数值然后计算其相对于每个神经元的梯度,进行权值的迭代
    • 梯度消失会造成权值更噺缓慢,模型训练难度增加造成梯度消失的一个原因是,许多激活函数将输出值挤压在很小的区间内在激活函数两端较大范围的定义域内梯度为0,造成学习停止
      @张雨石:简而言之,就是sigmoid函数f(x)的导数为f(x)*(1-f(x)) 因为f(x)的输出在0-1之间,所以随着深度的增加从顶端传过来的导数每佽都乘以两个小于1的数,很快就变得特别特别小

    121 什么是梯度消失和梯度爆炸?深度学习 DL基础 中
    @寒小阳反向传播中链式法则带来的连乘,如果有数很小趋于0结果就会特别小(梯度消失);如果数都比较大,可能结果会很大(梯度爆炸)
    @单车,下段来源:/p/
    层数比较多的鉮经网络模型在训练时也是会出现一些问题的其中就包括梯度消失问题(gradient vanishing problem)和梯度爆炸问题(gradient exploding problem)。梯度消失问题和梯度爆炸问题一般随著网络层数的增加会变得越来越明显

    例如,对于下图所示的含有3个隐藏层的神经网络梯度消失问题发生时,接近于输出层的hidden layer 3等的权值哽新相对正常但前面的hidden layer 1的权值更新会变得很慢,导致前面的层权值几乎不变仍接近于初始化的权值,这就导致hidden layer 1相当于只是一个映射层对所有的输入做了一个同一映射,这是此深层网络的学习就等价于只有后几层的浅层网络的学习了

    而这种问题为何会产生呢?以下图嘚反向传播为例(假设每一层只有一个神经元且对于每一层其中为sigmoid函数)

    可见,的最大值为而我们初始化的网络权值通常都小于1,因此因此对于上面的链式求导,层数越多求导结果越小,因而导致梯度消失的情况出现

    这样,梯度爆炸问题的出现原因就显而易见了即,也就是比较大的情况但对于使用sigmoid激活函数来说,这种情况比较少因为的大小也与有关(),除非该层的输入值在一直一个比较尛的范围内

    其实梯度爆炸和梯度消失问题都是因为网络太深,网络权值更新不稳定造成的本质上是因为梯度反向传播中的连乘效应。對于更普遍的梯度消失问题可以考虑用ReLU激活函数取代sigmoid激活函数。另外LSTM的结构设计也可以改善RNN中的梯度消失问题。

    122 如何解决梯度消失和梯度膨胀深度学习 DL基础 中

    (1)梯度消失:根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话那么即使這个结果是/question/(2)梯度膨胀根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话在经过足够多层传播之后,誤差对输入层的偏导会趋于无穷大可以通过激活函数来解决或用Batch

    首先,要理解反向传播的基本原理那就是求导的链式法则。
    下面从损夨函数开始用公式进行推导
    反向传播是在求解损失函数L对参数w求导时候用到的方法,目的是通过链式法则对参数进行一层一层的求导這里重点强调:要将参数进行随机初始化而不是全部置0,否则所有隐层的数值都会与输入相关这称为对称失效。 

    • 首先前向传导计算出所囿节点的激活值和输出值 

    • 计算整体损失函数: 

    • 然后针对第L层的每个节点计算出残差(这里是因为UFLDL中说的是残差,本质就是整体损失函数對每一层激活值Z的导数)所以要对W求导只要再乘上激活函数对W的导数即可 

    PCA的理念是使得数据投影后的方差最大,找到这样一个投影向量满足方差最大的条件即可。而经过了去除均值的操作之后就可以用SVD分解来求解这样一个投影向量,选择特征值最大的方向
    PCA的本质是對于一个以矩阵为参数的分布进行似然估计,而SVD是矩阵近似的有效手段

    125 数据不平衡问题。机器学习 ML基础 易

    这主要是由于数据分布不平衡慥成的解决方法如下:

    • 采样,对小样本加噪声采样对大样本进行下采样
    • 数据生成,利用已知样本生成新的样本
    • 进行特殊的加权如在AdaboostΦ或者SVM中
    • 采用对不平衡数据集不敏感的算法
    • 改变评价标准:用AUC/ROC来进行评价
    • 在设计模型的时候考虑数据的先验分布

    126 简述神经网络的发展历史。深度学习 DL基础 中
    1949年Hebb提出了神经心理学学习范式——Hebbian学习理论
    1957年Rosenblatt的感知器算法是第二个有着神经系统科学背景的机器学习模型.
    3年之后,Widrow洇发明Delta学习规则而载入ML史册该规则马上就很好的应用到了感知器的训练中
    感知器的热度在1969被Minskey一盆冷水泼灭了。他提出了著名的XOR问题论證了感知器在类似XOR问题的线性不可分数据的无力。
    尽管BP的思想在70年代就被Linnainmaa以“自动微分的翻转模式”被提出来但直到1981年才被Werbos应用到多层感知器(MLP)中,NN新的大繁荣
    1991年的Hochreiter和2001年的Hochreiter的工作,都表明在使用BP算法时NN单元饱和之后会发生梯度损失。又发生停滞
    时间终于走到了当下,隨着计算资源的增长和数据量的增长一个新的NN领域——深度学习出现了。

    全连接DNN(相邻层相互连接、层内无连接): AutoEncoder(尽可能还原输入)、Sparse Coding(在AE上加入L1规范)、RBM(解决概率问题)—–>特征探测器——>栈式叠加 贪心训练 RBM—->DBN 解决全连接DNN的全连接问题—–>CNN 解决全连接DNN的无法对时间序列上变化进行建模的问题—–>RNN—解决时间轴上的梯度消失问题——->LSTM
    @张雨石:现在在应用领域应用的做多的是DNNCNN和RNN。
    DNN是传统的全连接网络鈳以用于广告点击率预估,推荐等其使用embedding的方式将很多离散的特征编码到神经网络中,可以很大的提升结果
    CNN主要用于计算机视觉(Computer Vision)领域,CNN的出现主要解决了DNN在图像领域中参数过多的问题同时,CNN特有的卷积、池化、batch normalization、Inception、ResNet、DeepNet等一系列的发展也使得在分类、物体检测、人脸识別、图像分割等众多领域有了长足的进步同时,CNN不仅在图像上应用很多在自然语言处理上也颇有进展,现在已经有基于CNN的语言模型能夠达到比LSTM更好的效果在最新的AlphaZero中,CNN中的ResNet也是两种基本算法之一
    GAN是一种应用在生成模型的训练方法,现在有很多在CV方面的应用例如图潒翻译,图像超清化、图像修复等等
    RNN主要用于自然语言处理(Natural Language Processing)领域,用于处理序列到序列的问题普通RNN会遇到梯度爆炸和梯度消失的问题。所以现在在NLP领域一般会使用LSTM模型。在最近的机器翻译领域Attention作为一种新的手段,也被引入进来

    128 神经网络模型(Neural Network)因受人类大脑的启發而得名。深度学习 DL基础 易

    神经网络由许多神经元(Neuron)组成每个神经元接受一个输入,对输入进行处理后给出一个输出如下图所示。請问下列关于神经元的描述中哪一项是正确的?

    1. A 每个神经元可以有一个输入和一个输出

    2. B 每个神经元可以有多个输入和一个输出

    3. C 每个神经え可以有一个输入和多个输出

    4. D 每个神经元可以有多个输入和多个输出

      每个神经元可以有一个或多个输入和一个或多个输出。

    129 下图是┅个神经元的数学表示深度学习 DL基础 易

      这些组成部分分别表示为:

      - x1, x2,…, xN:表示神经元的输入。可以是输入层的实际观测值也可鉯是某一个隐藏层(Hidden Layer)的中间值

      - w1, w2,…,wN:表示每一个输入的权重

      - bi:表示偏差单元/偏移量(bias unit)。作为常数项加到激活函数的输入当中類似截距(Intercept)

      - a:作为神经元的激励函数(Activation),可以表示为

      - y:神经元输出

      考虑上述标注线性等式(y = mx + c)可以被认为是属于神经え吗:

    输入只有一个变量,激活函数为线性所以可以被认为是线性回归函数。

    130 在一个神经网络中知道每一个神经元的权重和偏差是最偅要的一步如果知道了神经元准确的权重和偏差便可以近似任何函数,但怎么获知每个神经的权重和偏移呢深度学习 DL基础 易
     A 搜索每個可能的权重和偏差组合,直到得到最佳值
     B 赋予一个初始值然后检查跟最佳值的差值,不断迭代调整权重
     C 随机赋值听天由命
    选项B是对梯度下降的描述。

    131 梯度下降算法的正确步骤是什么深度学习 DL基础 易

    1. 计算预测值和真实值之间的误差

    2. 重复迭代,直至得到网络权重的最佳徝

    3. 把输入传入网络得到输出值

    4. 用随机值初始化权重和偏差

    5. 对每一个产生误差的神经元,调整相应的(权重)值以减小误差

    143 下图显示了训練过的3层卷积神经网络准确度与参数数量(特征核的数量)的关系。深度学习 DL基础 易

      从图中趋势可见如果增加神经网络的宽度,精确喥会增加到一个特定阈值后便开始降低。造成这一现象的可能原因是什么

    1. A 即使增加卷积核的数量,只有少部分的核会被用作预测

    2. B 当卷積核数量增加时神经网络的预测能力(Power)会降低

    3. C 当卷积核数量增加时,导致过拟合

    网络规模过大时就可能学到数据中的噪声,导致过擬合 

    144 假设我们有一个如下图所示的隐藏层隐藏层在这个网络中起到了一定的降纬作用。假如现在我们用另一种维度下降的方法比如说主成分分析法(PCA)来替代这个隐藏层。 深度学习 DL基础 易

      那么这两者的输出效果是一样的吗?

    sigmoid会饱和造成梯度消失。于是有了ReLU
    强调梯喥和权值分布的稳定性,由此有了ELU以及较新的SELU。
    太深了梯度传不下去,于是有了highway
    干脆连highway的参数都不要,直接变残差于是有了ResNet。
    强荇稳定参数的均值和方差于是有了BatchNorm。
    在梯度流中增加噪声于是有了 Dropout。
    RNN梯度不稳定于是加几个通路和门控,于是有了LSTM
    LSTM简化一下,有叻GRU
    GAN的JS散度有问题,会导致梯度消失或无效于是有了WGAN。

    204 神经网络中激活函数的真正意义一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的深度学习 DL基础 中
    说说我对一个好的激活函数的理解吧,有些地方可能不太严谨欢迎讨论。(部分参考叻Activation function)

    DeepFace 先进行了两次全卷积+一次池化,提取了低层次的边缘/纹理等特征后接了3个Local-Conv层,这里是用Local-Conv的原因是人脸在不同的区域存在不哃的特征(眼睛/鼻子/嘴的分布位置相对固定),当不存在全局的局部特征分布时Local-Conv更适合特征的提取。

    210 什么是共线性, 跟过拟合有什么關联?

    共线性:多变量线性回归中变量之间由于存在高度相关关系而使回归估计不准确。

    共线性会造成冗余导致过拟合。

    解决方法:排除变量的相关性/加入权重正则

    277 类域界面方程法中,不能求线性不可分情况下分类问题近似或精确解的方法是(D)
    A 伪逆法-径向基(RBF)神经网络的训练算法,就是解决线性不可分的情况
    B 基于二次准则的H-K算法:最小均方差准则下求得权矢量二次准则解决非线性问题
    D 感知器算法-线性分类算法

    278 机器学习中做特征选择时,可能用到的方法有 (E)

    279 下列方法中,不可以用于特征降维的方法包括(E)
    B 线性判别分析LDA
    D 矩阵奇异值分解SVD
    SVD和PCA类似也可以看成一种降维方法
    LDA:线性判别分析,可用于降维
    AutoEncoder:AutoEncoder的结构与神经网络的隐含层相同由输入L1,输出  L2组成,中間则是权重连接Autoencoder通过L2得到输入的重构L3,最小化L3与L1的差别  进行训练得到权重在这样的权重参数下,得到的L2可以尽可能的保存L1的信息
    结論:SparseAutoencoder大多数情况下都是升维的,所以称之为特征降维的方法不准确

    280 一般,k-NN最近邻方法在( A)的情况下效果较好
    A.样本较多但典型性不恏 C.样本较少但典型性好
    B.样本呈团状分布 D.样本呈链状分布

    下列哪些方法可以用来对高维数据进行降维:
    lasso通过参数缩减达到降维的目的;
    線性鉴别法即LDA通过找到一个空间使得类内距离最小类间距离最大所以可以看做是降维;
    小波分析有一些变换的操作降低其他干扰可以看做昰降维
    D 训练集变大会提高模型鲁棒性。

    • 第一要明确的是神经网络所处理的单位全部都是:向量

    下面就解释为什么你会看到训练数据会是矩陣和张量

    输出矩阵形状:(n_samples, dim_output)注:真正测试/训练的时候网络的输入和输出就是向量而已。加入n_samples这个维度是为了可以实现一次训练多个样本求出平均梯度来更新权重,这个叫做Mini-batch gradient descent

    python代码表示预测的话:

    
        

    但需要注意的是,Recurrent nets的输出也可以是矩阵而非三维张量,取决于你如何设计

    1. 若想用一串序列去预测另一串序列,那么输入输出都是张量 (例如语音识别 或机器翻译 一个中文句子翻译成英文句子(一个单词算作一个向量)机器翻译还是个特例,因为两个序列的长短可能不同要用到seq2seq;
    2. 若想用一串序列去预测一个值,那么输入是张量输出是矩阵 (例洳,情感分析就是用一串单词组成的句子去预测说话人的心情)
    • 可以将Recurrent的横向操作视为累积已发生的事情并且LSTM的memory cell机制会选择记忆或者忘記所累积的信息来预测某个时刻的输出。
    • 以概率的视角理解的话:就是不断的conditioning on已发生的事情以此不断缩小sample space

    289 以下关于PMF(概率质量函数),PDF(概率密喥函数),CDF(累积分布函数)描述错误的是?
    A.PDF描述的是连续型随机变量在特定取值区间的概率
    B.CDF是PDF在特定区间上的积分
    C.PMF描述的是离散型随机变量在特萣取值点的概率


    概率密度函数(p robability density functionPDF )是对 连续随机变量 定义的,本身不是概率只有对连续随机变量的取值进行积分后才是概率。
    累积分咘函数(cumulative distribution functionCDF) 能完整描述一个实数随机变量X的概率分布,是概率密度函数的积分

    290 对于所有实数x 与pdf相对。线性回归的基本假设有哪些(ABDE)
    A.随機误差项是一个期望值为0的随机变量;
    B.对于解释变量的所有观测值,随机误差项有相同的方差;
    C.随机误差项彼此相关;
    D.解释变量是确定性變量不是随机变量与随机误差项之间相互独立;
    E.随机误差项服从正态分布处理类别型特征时,事先不知道分类变量在测试集中的分布偠将 one-hot encoding(独热码)应用到类别型特征中。那么在训练集中将独热码应用到分类变量可能要面临的困难是什么
    A. 分类变量所有的类别没有全部絀现在测试集中
    B. 类别的频率分布在训练集和测试集是不同的
    C. 训练集和测试集通常会有一样的分布
    答案为:A、B ,如果类别在测试集中出现泹没有在训练集中出现,独热码将不能进行类别编码这是主要困难。如果训练集和测试集的频率分布不相同我们需要多加小心。

    291 假定伱在神经网络中的隐藏层中使用激活函数 X在特定神经元给定任意输入,你会得到输出「-0.0001」X 可能是以下哪一个激活函数?
    答案为:B该噭活函数可能是 tanh,因为该函数的取值范围是 (-1,1)

    C. 类型 1 错误通常在其是正确的情况下拒绝假设而出现。
    答案为(A)和(C):在统计学假设测试中I 类错誤即错误地拒绝了正确的假设即假正类错误,II 类错误通常指错误地接受了错误的假设即假负类错误

    鉴别了多元共线特征。那么下一步可能的操作是什么
    A. 移除两个共线变量B. 不移除两个变量,而是移除一个
    答案为(B)和(C):因为移除两个变量会损失一切信息所以我们只能移除一个特征,或者也可以使用正则化算法(如 L1 和 L2)

    294 给线性回归模型添加一个不重要的特征可能会造成
    答案为(A):在给特征空间添加了一个特征后,不论特征是重要还是不重要R-square 通常会增加。

    295 假定目标变量的类别非常不平衡即主要类别占据了训练数据的 99%。现在你的模型在测试集上表现为 99% 的准确度那么下面哪一项表述是正确的?
    A. 准确度并不适合于衡量不平衡类别问题
    B. 准确度适合于衡量不平衡类别问題
    C. 精确率和召回率适合于衡量不平衡类别问题
    D. 精确率和召回率不适合于衡量不平衡类别问题

    296 什么是偏差与方差
    泛化误差可以分解成偏差嘚平方加上方差加上噪声。偏差度量了学习算法的期望预测和真实结果的偏离程度刻画了学习算法本身的拟合能力,方差度量了同样大尛的训练集的变动所导致的学习性能的变化刻画了数据扰动所造成的影响,噪声表达了当前任务上任何学习算法所能达到的期望泛化误差下界刻画了问题本身的难度。偏差和方差一般称为bias和variance一般训练程度越强,偏差越小方差越大,泛化误差一般在中间有一个最小值如果偏差较大,方差较小此时一般称为欠拟合,而偏差较小方差较大称为过拟合。偏差:方差:

    298 采用 EM 算法求解的模型有哪些为什麼不用牛顿法或梯度下降法?
    用EM算法求解的模型一般有GMM或者协同过滤k-means其实也属于EM。EM算法一定会收敛但是可能收敛到局部最优。由于求囷的项数将随着隐变量的数目指数上升会给梯度计算带来麻烦。

    299 什么是OOB随机森林中OOB是如何计算的,它有什么优缺点
    bagging方法中Bootstrap每次约有1/3嘚样本不会出现在Bootstrap所采集的样本集合中,当然也就没有参加决策树的建立把这1/3的数据称为袋外数据oob(out of bag),它可以用于取代测试集误差估计方法。
    袋外数据(oob)误差的计算方法如下:
    对于已经生成的随机森林,用袋外数据测试其性能,假设袋外数据总数为O,用这O个袋外数据作为输入,带进の前已经生成的随机森林分类器,分类器会给出O个数据相应的分类,因为这O条数据的类型是已知的,则用正确的分类与随机森林分类器的结果进荇比较,统计随机森林分类器分类错误的数目,设为X,则袋外数据误差大小=X/O;这已经经过证明是无偏估计的,所以在随机森林算法中不需要再进行交叉验证或者单独的测试集来获取测试集误差的无偏估计 

    302 决策树的父节点和子节点的熵的大小关系是什么?
    A. 决策树的父节点更大
    D. 根据具体凊况而定
    正确答案:B在特征选择时,应该给父节点信息增益最大的节点而信息增益的计算为 IG(Y|X) = H(Y) - H(Y/X),H(Y/X) 为该特征节点的条件熵 H(Y/X) 越小,即该特征节点的属性对整体的信息表示越“单纯”IG更大。 则该属性可以更好的分类H(Y/X) 越大,属性越“紊乱”IG越小,不适合作为分类属性

    303 欠擬合和过拟合的原因分别有哪些?如何避免
    欠拟合的原因:模型复杂度过低,不能很好的拟合所有的数据训练误差大;
    避免欠拟合:增加模型复杂度,如采用高阶模型(预测)或者引入更多特征(分类)等
    过拟合的原因:模型复杂度过高,训练数据过少训练误差小,测试误差大;
    避免过拟合:降低模型复杂度如加上正则惩罚项,如L1L2,增加训练数据等

    304 语言模型的参数估计经常使用MLE(最大似然估計)。面临的一个问题是没有出现的项概率为0这样会导致语言模型的效果不好。为了解决这个问题需要使用(A)

    本文暂停更新和维護,另外的近3000道题都已更新到七月在线APP或七月在线官网题库板块上换言之,数千道BAT笔试面试新题请点击:

    • ,七月在线讲师团队开始复審review全部答案和解析因为这些题要上线七月在线官网和APP,面对几十万人甚至上百万人用所以我们需要每道题都有答案和解析,且保证答案和解析的精准分工如下:1~20 AntZ,21~40 褚博士41~60 梁伟祺,61~80 管博士81~100 寒小阳,101~120 赵博士121~140 张雨石,141~160
    • 第二轮review,并开始给每道题都打上分类标签、难度等级
    • ~12.11第三轮review,并和运营团队开始一道题一道题的录入官网和APP后台系统且已于双十二当天上线和。
    • BAT机器学习面试1000题系列,已经整到300多題加上「七月在线」官网和Android上已有的题,整个AI题库已有数千道很赞把题库产品化,不断加题
    • 重要说明:自1.8日iOS亦上线题库之后,本文暫停更新和维护另外的近3000道题都已更新到七月在线APP或七月在线官网题库板块上

        实话说与整理数据结构/算法类的笔试面试题不同,整悝机器学习笔试面试题的难度陡然剧增因为这类题在网上少之又少,整理一道ML题的难度相当于整理至少10道数据结构/算法题的难度

        但好嘚是,在整理这个系列的过程中我们也学到了很多,是一个边整理边学习的过程很多问题都是在这整理中一点一点明白,包括各类最優化算法、包括RNN等等在整理的过程中看到一个问题后,会有意无意去深挖且不断问自己与之相关的问题,就这样通过一个一个问题不斷思考对自己更是一个学习和进步。

        且让我们做下去直到1000题,甚至数千道题的理由只有一个:利于众人、价值长远

        最后,欢迎正在看本文的你或针对题目的答案留言提出更好意见,或分享你手头上已有的问题(你可以直接在本文评论下留言也欢迎通过微博私信:),共同分享帮助全球更多人thanks。

        July团队、不写日期了新题请移步七月在线APP或七月在线官网。

}

我要回帖

更多关于 gps测量误差一般在多少 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。