同样的lte rssi值正常范围,lte和wifi谁的耗电量比较大

只需一步,快速开始
扫一扫,访问微社区
微信名称:网优雇佣军
微 信 号:hropt_com
微信QQ:
查看: 11379|回复: 0
LTE中RSRP、RSSI、RSRQ、RS-CINR之间是什么关系
帖子军饷威望
▊参数RSRP、RSSI、RSRQ、RS-CINR
在介绍LTE一系列的相关文档中,出现了几个比较容易混淆的参数RSRP、RSSI、RSRQ、RS-CINR,这些参数关系到边缘场强、信噪比等指标,考虑到方案设计时这些指标的重要性,下面详细介绍这几个参数的意义。
▊RSRP (Reference Signal Receiving Power)的介绍
在3GPP的协议中,参考信号接收功率(RSRP),定义为在考虑测量频带上,承载小区专属参考信号的资源粒子的功率贡献(以W为单位)的线性平均值。
通俗的理解,可以认为RSRP的功率值就是代表了每个子载波的功率值。
▊ RSSI( Received Signal Strength Indicator)的介绍
在3GPP的协议中,接收信号强度指示(RSSI)定义为:接收宽带功率,包括在接收机脉冲成形滤波器定义的带宽内的热噪声和接收机产生的噪声。测量的参考点为UE的天线端口。即RSSI(Received Signal Strength Indicator)是在这个接收到Symbol内的所有信号(包括导频信号和数据信号,邻区干扰信号,噪音信号等)功率的平均值。
虽然也是平均值,但是这里还包含了来自外部其他的干扰信号,因此通常测量的平均值要比带内真正有用信号的平均值要高。
▊RSRQ (Reference Signal Receiving Quality) 的介绍
在3GPP中有该参数的介绍,参考信号接收质量(RSRQ) i定义为比值N×RSRP/(E-UTRA carrier RSSI),其中N表示 E-UTRA carrier RSSI 测量带宽中的RB的数量。分子和分母应该在相同的资源块上获得。 E-UTRA 载波接收信号场强指示(E-UTRA&&Carrier RSSI),由UE从所有源上观察到的总的接收功率(以W为单位)的线性平均,包括公共信道服务和非服务小区,邻仅信道干扰,热噪声等。如果UE使用接收分集,那么报告值应该不低于任一独立分集分支的相应RSRQ值。
从公式上推断,该数值用对数表示时,大部分情况是负值。即使来自外部的干扰为0或忽略不计,极限情况数值也是趋近与0的。
▊RS-CINR(Carrier to Interference plus Noise Ratio)的介绍
载波干扰噪声比,RS-CINR在终端定义为RS有用信号与干扰(或噪声或干扰加噪声)相比强度,路测中由UE测得。RS-SINR没有在3GPP进行标准化,所以目前仅在外场测试中要求厂家提供RS-CINR,且不同厂家在实现中可能会有一定偏差。具体计算数值如下
RS-CINR=RSRP/(RS RSSI-RSRP);或者可以说:下行RS的SINR = RS接收功率 /(干扰功率 + 噪声功率),干扰功率 = RS所占的RE上接收到的邻小区的功率之和。
通俗的理解,该比值类似于GSM系统中的C/I,即有用信号/无用的信号。从定义来看RSRP相当于WCDMA里CPICH的RSCP,RSRQ相当于CPICH Ec/No
▊RSRQ>-13.8dB与RS-CINR>0dB关系的说明
Reference Signal Received Quality (RSRQ) 在协议中的定义为:N×RSRP/(E-UTRA carrier RSSI),即RSRQ = 10log10(N) + UE所处位置接收到主服务小区的RSRP – RSSI。其中N为UE测量系统频宽内RB的数目,RSSI是指天线端口port0上包含参考信号的OFDM符号上的功率的线性平均,首先将每个资源块上测量带宽内的所有RE上的接收功率累加,包括有用信号、干扰、热噪声等,然后在OFDM符号上即时间上进行线性平均。参见3GPP 36.214。
RSRQ是随着网络负荷和干扰发生变化,网络负荷越大,干扰越大,RSRQ测量值越小。
在网络规划仿真中RSRQ>-13.8dB与RS-CINR>0dB的统计比例基本一致 ,他们的数值关系推断如下:
两式相除得:
观察上面的式子,表示测量频带内的RB数量,分子乘于12后变成测量频带内的干扰信号,RSSI为有用信号(本小区信号)+干扰信号(邻区干扰与噪声)
考虑理想情况下,在重叠区域,本小区的干扰与邻区信号强度相等,在边缘处用户被分配的RB资源不多,占用带宽不大,不考虑底噪。可推算
得到RSRQ/RS-CINR=1/24,即-13.8dB;
在LTE-Advance R11版本协议中提出了CoMP多点协调的概念,通过X2接口互联,避免在同频组网的情况下,邻区间使用相同的频率资源,降低干扰。但是目前X2接口间的功能尚未完善。所以现在同频组网的情况,无法避免重叠区发生频率资源碰撞。在重叠覆盖处只有牺牲速率要求来保证质量了。
在协议中SINR、RS-CINR没有描述,但是应用的最多的还是SINR值了。这里 SINR = SRS接收功率 /(干扰功率 + 噪声功率)与上文介绍的RS-CINR是一样的;TS36.101中,SNR = Es/Noc&&, Es是接收到的有用信号在每个RE上的能量,Noc表示高斯白噪的功率谱密度。
SNR阈值用来对应调制方式、编码速率。通常,将参考信号的SINR近似地看为AWGN信道条件下的等效SNR,并通过SINR与调制方式和速率的对应关系表可以确定小于或等于SINR值的最大SNR阈值。
上一篇:下一篇:
注册账号后积极发帖的会员
经常参与各类话题的讨论,发帖内容较有主见
经常帮助其他会员答疑
积极宣传本站,为本站带来更多注册会员
积极宣传本站,为本站带来更多的用户访问量
经常在论坛发帖,且发帖量较大
长期对论坛的繁荣而不断努力,或多次提出建设性意见
活跃且尽责职守的版主
为论坛做出突出贡献的会员
为论坛做出突出贡献的会员
Powered by新浪广告共享计划>
广告共享计划
LTE中的电平和质量:RSRP&RSRQ
LTE中RSRP是Reference signal received power (RSRP), is defined as
the linear average over the power contributions (in [W]) of the
resource elements that carry cell-specific reference signals within
the considered measurement frequency bandwidth.
测量参考信号在一定频带内的功率线性平均即可
Reference Signal Received Quality (RSRQ) is defined as the
ratio N&RSRP/(E-UTRA carrier RSSI), where N is the number of RB’s
of the E-UTRA carrier RSSI measurement bandwidth. The measurements
in the numerator and denominator shall be made over the same set of
resource blocks.
RSRQ=N&RSRP/(E-UTRA carrier RSSI),
RSRP(Reference Signal Receiving Power)是在某个Symbol内承载Reference
Signal的所有RE上接收到的信号功率的平均值;
而RSSI(Received Signal Strength
Indicator)则是在这个Symbol内接收到的所有信号(包括导频信号和数据信号,邻区干扰信号,噪音信号等)功率的平均值
而RSRQ(Reference Signal Receiving
Quality)则是RSRP和RSSI的比值,当然因为两者测量所基于的带宽可能不同,会用一个系数来调整,也就是 RSRQ =
N*RSRP/RSSI
从定义来看RSRP相当于WCDMA里CPICH的RSCP,RSRQ相当于CPICH Ec/No.
在小区选择或重选时,通常使用RSRP就可以了,在切换时通常需要综合比较RSRP与RSRQ,如果仅比较RSRP可能导致频繁切换,如果仅比较RSRQ虽然减少切换频率但可能导致掉话,当然在切换时具体如何使用这两个参数是eNB实现问题。
还有一个关键指标也很常用: SINR &&
浏览:SINR_百度百科
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。3539人阅读
RSRP (Reference Signal Receiving Power)的介绍
在3GPP的协议中,参考信号接收功率(RSRP),定义为在考虑测量频带上,承载小区专属参考信号的资源粒子的功率贡献(以W为单位)的线性平均值,是LTE的关键指标。通俗的理解,是在Symbol承载参考信号的所有RE(资源粒子)上接收到的信号功率的平均值。RSRP:信号接受功率,RSRP单位是: dBm。衡量标准:
覆盖强度级别
覆盖强度等级6
覆盖较差。业务基本无法起呼。
-105&rx&=-95 p=&&&&/rx&=-95&
覆盖强度等级5
覆盖差。室外语音业务能够起呼,但呼叫成功率低,掉话率高。室内业务基本无法发起业务。
-95&rx&=-85 td=&&&&/rx&=-85&
覆盖强度等级4
覆盖一般,室外能够发起各种业务,可获得低速率的数据业务。但室内呼叫成功率低,掉话率高。
-85&rx&=-75 p=&&&&/rx&=-75&
覆盖强度等级3
覆盖较好,室外能够发起各种业务,可获得中等
速率的数据业务。室内能发起各种业务,可获
得低速率数据业务。
-75&rx&=-65 p=&&&&/rx&=-65&
覆盖强度等级2
覆盖好,室外能够发起各种业务可获得高速率的数据业务。室内能发起各种业务,可获得中等速率数据业务。
覆盖强度等级1
覆盖非常好。
RSSI( Received Signal Strength Indicator)的介绍
在3GPP的协议中,接收信号强度指示(RSSI)定义为:接收宽带功率,包括在接收机脉冲成形滤波器定义的带宽内的热噪声和接收机产生的噪声。测量的参考点为UE(用户设备)的天线端口。即RSSI(Received Signal Strength Indicator)是在这个接收到Symbol内的所有信号(包括导频信号和数据信号,邻区干扰信号,噪音信号等)功率的平均值。&虽然也是平均值,但是这里还包含了来自外部其他的干扰信号,因此通常测量的平均值要比带内真正有用信号的平均值要高。&
在CDMA网络中,RSSI的范围在-110dbm — -20dbm之间。一般来说,如果RSSI&-95dbm,说明当前网络信号覆盖很差,几乎没什么信号;-95dmb&RSSI&-90dbm,说明当前网络信号覆盖很弱;RSSI〉-90dbm,说明当前网络信号覆盖较好。所以,一般都是以-90dbm为临界点,来初略判断当前网络覆盖水平。
RSRQ (Reference Signal Receiving Quality) 的介绍
在3GPP中有该参数的介绍,RSRQ是RSRP和RSSI的比值,当然因为两者测量所基于的带宽可能不同,会用一个系数来调整,定义为 RSRQ = N*RSRP/RSSI,其中N表示 RSSI 测量带宽中的RB的数量。分子和分母应该在相同的资源块上获得。 E-UTRA 载波接收信号场强指示(E-UTRA &Carrier RSSI),由UE从所有源上观察到的总的接收功率(以W为单位)的线性平均,包括公共信道服务和非服务小区,邻仅信道干扰,热噪声等。如果UE使用接收分集,那么报告值应该不低于任一独立分集分支的相应RSRQ值。从公式上推断,该数值用对数表示时,大部分情况是负值。即使来自外部的干扰为0或忽略不计,极限情况数值也是趋近与0的。衡量标准:
RS-CINR(Carrier to Interference plus Noise Ratio)的介绍
载波干扰噪声比,RS-CINR在终端定义为RS有用信号与干扰(或噪声或干扰加噪声)相比强度,路测中由UE测得。RS-SINR没有在3GPP进行标准化,所以目前仅在外场测试中要求厂家提供RS-CINR,且不同厂家在实现中可能会有一定偏差。具体计算数值如下 RS-CINR=RSRP/(RS RSSI-RSRP);或者可以说:下行RS的SINR = RS接收功率 /(干扰功率 + 噪声功率),干扰功率 = RS所占的RE上接收到的邻小区的功率之和。 通俗的理解,该比值类似于GSM系统中的C/I,即有用信号/无用的信号。从定义来看RSRP相当于WCDMA里CPICH的RSCP,RSRQ相当于CPICH
SINR(Signal to Interference plus Noise Ratio)的介绍
信号与干扰加噪声比 ,是指接收到的有用信号的强度与接收到的干扰信号(噪声和干扰)的强度的比值;可以简单的理解为“信噪比”。
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:50013次
积分:1005
积分:1005
排名:千里之外
原创:37篇
转载:96篇
(6)(8)(4)(11)(12)(13)(79)&img src=&/v2-6b621d64b89b58f120bc8_b.jpg& data-rawwidth=&1200& data-rawheight=&900& class=&origin_image zh-lightbox-thumb& width=&1200& data-original=&/v2-6b621d64b89b58f120bc8_r.jpg&&&i&摘要: 本文以浅显易懂的语言介绍了机器学习和深度学习的定义及应用,以及在源数据要求,硬件支持,特征工程、问题解决方式、执行时间及可解释性等方面的区别,对于新手入门有很大启示意义。&/i&&br&&h2&&b&楔子:&/b&&/h2&&p&
机器学习和深度学习现在很火,你会发现突然间很多人都在谈论它们。如下图所示,机器学习和深度学习的趋势对比(来自Google trend,纵轴表示搜索热度):&/p&&img src=&/v2-731cec5c79ffb16c8acfea_b.png& data-rawwidth=&1137& data-rawheight=&347& class=&origin_image zh-lightbox-thumb& width=&1137& data-original=&/v2-731cec5c79ffb16c8acfea_r.png&&&p&
本文将会以简单易懂的语言及示例为大家详细解释深度学习和机器学习的区别,并介绍相关用途。&/p&&h1&机器学习和深度学习简介&/h1&&h2&机器学习&/h2&&p&
Tom Mitchell 关于机器学习的定义被广泛引用,如下所示:&/p&&p&&b&对于某类任务T和性能度量P,如果一个计算机程序在T上以P衡量的性能随着经验E而不断自我完善,那么我们称这个计算机程序在从经验E学习。&/b&&/p&&p&&i&“A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P if its performance at tasks in T, as measured by P, improves with experience E ”&/i&&/p&&p&
上面的抽象定义可能使你感到困惑,相信下面几个简单的示例会让你恍然大悟。&/p&&p&【例1 根据身高预测体重】&/p&&p&假设你要创建一个根据人的身高预测体重的系统。第一步是收集数据,收集完之后画出数据分布图如下所示。图中的每个点都代表一条数据,横坐标表示身高,纵坐标表示体重。&/p&&img src=&/v2-2b37cdadaf4ac2b0c3879fb_b.jpg& data-rawwidth=&528& data-rawheight=&351& class=&origin_image zh-lightbox-thumb& width=&528& data-original=&/v2-2b37cdadaf4ac2b0c3879fb_r.jpg&&&p&我们可以画一条简单的直线来根据身高预测体重,比如:&/p&&p&Weight (in kg) = Height (in cm) - 100&/p&&p&如果这条直线预测身高很准确,那怎样来衡量它的性能呢?比如以预测值和真实值之间的差值来衡量预测模型的性能。当然,源数据越多,模型效果就越好。如果效果不好,那么可以使用其他方法来提升模型性能,如增加变量(如性别)或者改变预测直线。&/p&&p&【例2 风暴预测系统】&/p&&p&
假定要构建一个风暴预测系统,你手头上有过去发生的风暴数据以及这些风暴发生前三个月的天气数据。那么怎样构建一个风暴预测系统呢?&/p&&img src=&/v2-5f326cced3f_b.jpg& data-rawwidth=&640& data-rawheight=&436& data-thumbnail=&/v2-5f326cced3f_b.jpg& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/v2-5f326cced3f_r.gif&&&p&首先要做的是清洗数据并找到数据中的隐藏模式,比如导致风暴产生的条件。我们可以对一些条件建模,比如温度是否大于40摄氏度,湿度是否介于80到100之间,然后将这些特征输入模型。&/p&&p&你要做的就是充分利用历史数据,然后预测是否会产生风暴。在这个例子中,评价的指标是正确预测风暴发生的次数。我们可以重复预测过程多次,然后将性能结果返回系统。&/p&&p&
回到最初机器学习的定义,我们将风暴预测系统定义如下:任务T是找到造成风暴的大气条件,性能P是在模型参数学习好之后,正确预测的次数,经验E是系统的迭代过程。&br&&/p&&h2&深度学习&/h2&&p&深度学习其实很早之前就出现了,随着近几年的炒作,又逐渐火起来了。&/p&&p&&b&深度学习是一种特殊的机器学习,它将现实世界表示为嵌套的层次概念体系(由较简单概念间的联系定义复杂概念,从一般抽象概括到高级抽象表示),从而获得强大的性能与灵活性。&/b&&/p&&p&&i&Deep learning is a particular kind of machine learning that achieves great power and flexibility by learning to represent the world as nested hierarchy of concepts, with each concept defined in relation to simpler concepts, and more abstract representations computed in terms of less abstract ones.&/i&&/p&&p&【例1 图形检测】&/p&&p&
假设我们要将矩形和其他图形区别开。人眼首先是检测这个图形是否有4条边(简单概念)。如果有4条边,在检测它们是否相连,闭合且垂直,以及是否相等(嵌套层次概念)。事实上,我们将一个复杂的任务(矩形识别)分解成一些简单低抽象层次的任务。深度学习本质上是在更大的范围内做这件事。&/p&&img src=&/v2-bec445c1523_b.jpg& data-rawwidth=&432& data-rawheight=&288& class=&origin_image zh-lightbox-thumb& width=&432& data-original=&/v2-bec445c1523_r.jpg&&&p&【例2 猫还是狗】&br&&/p&&p&这个案例是构建一个能够识别图片中动物是猫或者狗的系统。&/p&&img src=&/v2-446dd946deaa19d524ee1e_b.png& data-rawwidth=&720& data-rawheight=&433& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&/v2-446dd946deaa19d524ee1e_r.png&&&p&如果使用机器学习解决这个问题,首先要定义一些特征,比如该动物是否有胡须、耳朵;如果有耳朵,那么耳朵是否是尖的。简单地说,我们要定义面部特征,然后让系统识别出在动物分类中哪些是重要特征。而深度学习会一次性完成这些任务,深度学习会自动找到对分类任务重要的特征,而机器学习不得不人工指定。&/p&&p&深入学习工作流程如下:&/p&&p&1. 首先在图片中找到和猫或者狗最相关的边界;&/p&&p&2. 然后找到形状和边界的组合,如是否能找到胡须和耳朵;&/p&&p&3. 在复杂概念的连续分层识别后,就能够确定哪些特征对识别猫狗起重要作用。&/p&&h1&机器学习和深度学习的对比&/h1&&h2&数据依赖&/h2&&p&
深度学习和传统机器学习最重要的区别是它的性能随着数据量的增加而增强。如果数据很少,深度学习算法性能并不好,这是因为深度学习算法需要大量数据才能很好理解其中蕴含的模式。这种情况下,使用人工指定规则的传统机器学习占据上风。如下图所示:&/p&&img src=&/v2-3de02efb8ce567d67765f_b.png& data-rawwidth=&1218& data-rawheight=&869& class=&origin_image zh-lightbox-thumb& width=&1218& data-original=&/v2-3de02efb8ce567d67765f_r.png&&&h2&硬件支持&/h2&&p&深度学习算法严重依赖于高端机,而传统机器学习在低端机上就可以运行。因为深度学习需要进行大量矩阵乘法操作,而GPU可以有效优化这些操作,所以GPU成为其中必不可少的一部分。&/p&&h2&特征工程&/h2&&p&特征工程将领域知识输入特征提取器,降低数据复杂度,使数据中的模式对学习算法更加明显,得到更优秀的结果。从时间和专业性方面讲,这个过程开销很高。机器学习中,大部分使用的特征都是由专家指定或根据先验知识确定每个数据域和数据类型。比如,特征可以是像素值,形状,纹理,位置,方向。大多数机器学习方法的性能依赖于识别和抽取这些特征的准确度。&/p&&p&深度学习算法试图从数据中学习高层特征,这是深度学习与众不同的一部分,同时也是超越传统机器学习的重要一步。深度学习将每个问题归结为开发新特征提取器,如卷积神经网络在底层学习如边和直线种种低层特征,然后是面部部分特征,最后是人脸的高层特征。&/p&&img src=&/v2-eb16a96f5d54af_b.png& data-rawwidth=&951& data-rawheight=&268& class=&origin_image zh-lightbox-thumb& width=&951& data-original=&/v2-eb16a96f5d54af_r.png&&&h2&问题解决方案&/h2&&p&当使用传统机器学习方法解决问题时,经常采取化整为零,分别解决,再合并结果求解的策略。而深度学习主张end-to-end模型,输入训练数据,直接输出最终结果,让网络自己学习如何提取关键特征。&/p&&p&比如说你要进行目标检测,需要识别出目标的类别并指出在图中的位置。&/p&&img src=&/v2-ed4f95afba20a71deaf91fd_b.png& data-rawwidth=&800& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/v2-ed4f95afba20a71deaf91fd_r.png&&&p&典型机器学习方法将这个问题分为两步:目标检测与目标识别。首先,使用边框检测技术,如grabcut,扫描全图找到所有可能的对象,对这些对象使用目标识别算法,如HOG/SVM,识别出相关物体。&/p&&p&深度学习方法按照end-to-end方式处理这个问题,比如YOLO net通过卷积神经网络,就能够实现目标的定位与识别。也就是原始图像输入到卷积神经网络中,直接输出图像中目标的位置和类别。&/p&&h2&执行时间&/h2&&p&通常,深度学习需要很长时间训练,因为深度学习中很多参数都需要远超正常水平的时间训练。ResNet大概需要两周时间从零开始完成训练,而机器学习只需要从几秒到几小时不等的训练时间。测试所需要的时间就完全相反,深度学习算法运行需要很少的时间。然而,和KNN(K近邻,一种机器学习算法)相比,测试时间会随着测试数据量的增加而增加。不过并非所有的机器学习算法都需要很长时间,某些也只需要很少的测试时间。&/p&&h2&可解释性&/h2&&p&假定使用深度学习给文章自动评分,你会发现性能会很不错,并且接近人类评分水准。但它不能解释为什么给出这样的分数。在运行过程中,你可以发现深度神经网络的哪些节点被激活,但你不知道这些神经元是对什么进行建模以及这每层在干什么,所以无法解释结果。&/p&&p&另一方面,机器学习算法如决策树按照规则明确解释每一步做出选择的原因,因此像决策树和线性/逻辑斯蒂回归这类算法由于可解释性良好,在工业界应用很广泛。&/p&&h1&机器学习和深度学习应用场景&/h1&&p&&a href=&/?target=https%3A//en.wikipedia.org/wiki/Machine_learning%23Applications& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Wiki&i class=&icon-external&&&/i&&/a&上面介绍了一些机器学习的应用领域:&/p&&p&1. &b&计算机视觉:&/b&如车牌号识别,人脸识别;&/p&&p&2. &b&信息检索:&/b&如搜索引擎,文本检索,图像检索;&/p&&p&3. &b&营销:&/b&自动邮件营销,目标识别;&/p&&p&4. &b&医疗诊断:&/b&癌症诊断,异常检测;&/p&&p&5.&b& 自然语言处理:&/b&语义分析,照片标记;&/p&&p&6. &b&在线广告&/b&&b&,&/b&等等。&/p&&p&下图总结了机器学习的应用领域,总的来说应用范围十分广泛。&/p&&img src=&/v2-6b621d64b89b58f120bc8_b.jpg& data-rawwidth=&1200& data-rawheight=&900& class=&origin_image zh-lightbox-thumb& width=&1200& data-original=&/v2-6b621d64b89b58f120bc8_r.jpg&&&p&谷歌是业内有名的使用机器学习/深度学习的公司,如下图所示,谷歌将深度学习应用到不同的产品。&/p&&p&&img src=&/v2-855a5d7ae2a5fdda5b1ca_b.jpg& data-rawwidth=&638& data-rawheight=&359& class=&origin_image zh-lightbox-thumb& width=&638& data-original=&/v2-855a5d7ae2a5fdda5b1ca_r.jpg&&即时测试&/p&&p&为了评估你是否真正理解了机器学习和深度学习的区别,这里将会有一个快速测试,可以在&a href=&/?target=https%3A///t/discussion-for-pop-quiz/17271%3Fu%3Djalfaizy& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这里&i class=&icon-external&&&/i&&/a&提交答案。你要做的就是分别使用机器学习和深度学习解决下面的问题,并决定哪个方法更好。&/p&&p&【场景1】 假设你要开发一个无人驾驶汽车系统,该系统以相机拍摄的原始数据作为输入,然后预测方向盘转动的方向及角度。&/p&&p&【场景2】给定一个人的信用凭证和背景信息,评估是否可以给他发放贷款。&/p&&p&【场景3】创建一个将俄语文本翻译为印度语的系统。&/p&&h1&未来趋势&/h1&&p&
前面总结了机器学习和深度学习的区别,本节对二者未来趋势:&/p&&p&
1. 鉴于工业界使用数据科学和机器学习呈增加的趋势,在业务中使用机器学习对那些想要生存下来的公司变得越发重要。同时,了解更多的基础知识也十分有必要。&/p&&p&
2. 深度学习给人越来越多的惊喜,将来也会一直是这样。深度学习被证明是已有技术中最先进的最好的技术之一。&/p&&p&
3. 深度学习和机器学习和研究还在继续,不像以前那样在学术界发展受限。目前机器学习和深度学习在工业界和学术界呈爆炸式发展。并且受到比以前更多的基金支持,很有可能成为人类发展的关键点之一。&/p&&h1&尾声&/h1&&p&本文将深度学习和机器学习进行了详细对比,希望能够激励大家去学到更多知识。请参考&a href=&/?target=https%3A///learning-path-learn-machine-learning/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习路线图&i class=&icon-external&&&/i&&/a&和&a href=&/?target=https%3A///learning-path-learn-machine-learning/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&深度学习路线图&i class=&icon-external&&&/i&&/a&。&/p&&p&【作者简介】&/p&&img src=&/v2-cffb7c548ccc_b.jpg& data-rawwidth=&200& data-rawheight=&200& class=&content_image& width=&200&&&p&&a href=&/?target=https%3A///blog/author/jalfaizy/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Faizan Shaikh&i class=&icon-external&&&/i&&/a&, 数据科学爱好者,深度学习,醉心于人工智能。&/p&&p&以上为译文&br&&/p&&p&本文由北邮&a href=&/?target=http%3A///fly51fly%3Fspm%3D.blogcont68901.17.sGsq0A& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&@爱可可-爱生活&i class=&icon-external&&&/i&&/a& 老师推荐,&a href=&/?target=http%3A///taobaodeveloperclub%3Fspm%3D.blogcont68901.18.sGsq0A& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&阿里云云栖社区&i class=&icon-external&&&/i&&/a&组织翻译。&br&文章原标题《Deep Learning vs. Machine Learning – the essential differences you need to know!》,作者:&a href=&/?target=https%3A///blog/author/jalfaizy/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Faizan Shaikh&i class=&icon-external&&&/i&&/a&,译者:李烽,审校:段志成-海棠&/p&&p&文章为简译,更为详细的内容,请查看&a href=&/?target=https%3A///blog/2017/04/comparison-between-deep-learning-machine-learning/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&原文&i class=&icon-external&&&/i&&/a&&/p&&br&&b&英文原文支持下载附件查看:&/b& &a href=&/?target=http%3A///m/19820/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Comparis...[【方向】]..pdf&i class=&icon-external&&&/i&&/a&
摘要: 本文以浅显易懂的语言介绍了机器学习和深度学习的定义及应用,以及在源数据要求,硬件支持,特征工程、问题解决方式、执行时间及可解释性等方面的区别,对于新手入门有很大启示意义。 楔子: 机器学习和深度学习现在很火,你会发现突然间很多人都在…
&img src=&/v2-41d2ddefb9662_b.jpg& data-rawwidth=&476& data-rawheight=&357& class=&origin_image zh-lightbox-thumb& width=&476& data-original=&/v2-41d2ddefb9662_r.jpg&&&p&本文原载于 &a href=&/techspider& class=&internal&&科技蜘蛛 - 知乎专栏&/a& 和同名公众号(微信id:techspider)&/p&&p&作者: Martin JIANG & 星辰&/p&&p&&b&一个时代的落幕&/b&&/p&&br&&p&葡萄牙里斯本,当地时间10月14日,凌晨00点23分,3GPP RAN1确定 LDPC 为 5G 标准 New Radio (NR) 长码编码方案。&/p&&br&&p&三天来,全球各大通信设备商、运营商和芯片商在这场5G物理层信道编码的争夺战中进行了无比惨烈的较量,最后由美国主推的LDPC战胜由中国支持的Polar码和欧洲主推的Turbo 2.0,被确定为长码标准。而短码的角逐还将继续。这标志着3G、4G下使用的Turbo码结束了其长达十几年的统治地位。&/p&&br&&p&一个时代的落幕,不禁令人唏嘘。这个曾将信息理论推入一个崭新时代的编码方案,尽管发展出了性能完美的2.0版本 (在笔者看来,无论是理论上还是工程上都相对于 LDPC 和 Polar 码拥有优势),然而 Turbo 阵营势单力薄,最终不得不因为非技术原因让位于 LDPC。现实从来就是残酷的,标准的走向取决于玩家的实力和话语权。感伤之余,写成此文纪念 Turbo 和那个辉煌的时代。&/p&&br&&br&&p&&b&信道编码&/b&&/p&&br&&p&众所周知,信息以信号为载体进行传播,从一端传输到另一端需要经过信道。信号在信道中传播不可避免地会发生扭曲和变形,信道中的噪声和干扰会降低信号质量,甚至淹没信号,导致接收端无法正常接收发射端的信息。比如一串为 [0 0 1 1 0 1] 的序列经过信道之后可能会变成 [0 0 0 1 0 1],那么整个传输过程就没有顺利完成。&/p&&br&&p&信道编码的目的正是为了对抗信道引起的传输错误。通过对原有信息添加冗余,让传输变得更加健壮。一个最简单的例子是奇偶校验码,即当原有序列各比特和为奇数时添加比特1,若为偶数,则添加比特0,从而使整个传输序列各比特之和永远保持偶数。在上面的例子中,信息序列为 [0 0 1 1 0 1],各比特和为奇数,末尾添1,实际传输序列变为 [0 0 1 1 0 1 &b&&u&1&/u&&/b&],那么当接收端收到[0 0 0 1 0 1 &b&&u&1&/u&&/b&] 时,发现序列各比特和为奇数,便知晓实际传输过程中必然发生了错误,接收序列不可信,因此将告诉发送端重传。&/p&&br&&p&奇偶校验码较为简单,只能对信息进行对错校验,而且校验能力有限。更复杂的信道编码通过添加冗余信息,使得接收端不单可以知道自己收到的信息是否是原始发送序列,还能在一定程度上对错误进行修正,恢复原始序列。而奠定这一技术数学理论基础的即信息论之父香农。&/p&&br&&img src=&/v2-c6ce0c0b420de2fcbda4c13_b.jpg& data-rawwidth=&850& data-rawheight=&400& class=&origin_image zh-lightbox-thumb& width=&850& data-original=&/v2-c6ce0c0b420de2fcbda4c13_r.jpg&&&br&&p&&b&香农极限&/b&&/p&&br&&p&1948年,克劳德·香农在贝尔系统技术杂志发表了著名的 《通信的数学理论》 一文,为现代信息理论奠定了基础。香农从数学上证明,当传输速率低于信道容量时,存在一种信道编码使得一个足够长的传输序列可以完成任意小错误率的传输。这就是今天我们常常提起的香农极限。然而遗憾的是,香农并没有给出一种在现实工程上可以实现的编解码方案。&/p&&br&&p&在此后的四十多年里,香农的后继者们不断地做着各种努力和尝试,试图提出一种可以接近香农极限的编码。然而, 数十年过去, 人们发现他们所取得的进步离理论极限依旧如此遥远,这也曾一度让人怀疑是否真的存在可达到香农极限并现实可行的编码,直到Turbo码横空出世的那一天。&/p&&br&&p&历史是那样地具有戏剧性,提出 Turbo 码的人也叫克劳德 (Claude Berrou)。这看似巧合,却又仿佛是冥冥之中的一种注定。Claude Berrou 就职的学校 Télécom Bretagne 坐落于法国西北角的布列塔尼地区,而在学校研究楼边上有一条小道,名字就叫香农之路。&/p&&br&&img src=&/v2-083afcf52b41c8c4e70e606_b.png& data-rawwidth=&653& data-rawheight=&330& class=&origin_image zh-lightbox-thumb& width=&653& data-original=&/v2-083afcf52b41c8c4e70e606_r.png&&&br&&p&&b&永远的Turbo码&/b&&/p&&br&&p&Turbo的编码器非常简单,由两个并行的卷积码编码器 (Encoder) 组成。所谓卷积码,即输出为输入和一段已知序列的卷积。与其对应的分组码则是将序列分段,每段序列和编码矩阵相乘得到输出序列(在后续发展中,Turbo码也拥有了分组码版本)。在Turbo码中,输入序列 (Input)在进入第二个编码器时须经过一个交织器 (Interleaver),用于将序列打乱。两个编码器的输出(Output I 和 II)共同作为冗余信息添加到信息序列(Systematic output)之后,对抗信道引起的错误。&/p&&br&&img src=&/v2-ef0cb2e36fb3dcf6f54caf_b.png& data-rawwidth=&480& data-rawheight=&221& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&/v2-ef0cb2e36fb3dcf6f54caf_r.png&&&p&值得注意的是,Turbo码的强大主要来源于其解码器。从下图Turbo码解码器中可以看到,整个解码过程与编码过程形成对应关系,信息序列 (Systematic data) 和相应的冗余序列 (Parity 1 and 2) 分别输入两个解码器,而后各自的输出经过一个减法运算并通过交织 (Interleaver) 和解交织(Deinterleaver) 后反馈给另一个解码器。&b&Turbo的核心正是这一减法和反馈,图中由红线标注。这一小小的连线堪称上帝之手,它将解码技术,甚至是信息理论推向了一个新的时代&/b&。为什么要做减法呢? 因为输出信息被分解为内信息 (intrinsic information) 和外信息 (extrinsic information),通过减法从输出信息中取出外信息并将其反馈给另一个解码器。&b&在迭代解码过程中,接收信息错误不断地被纠正,最后无线逼近香农极限。整个解码过程信息在两个极为简单的解码器间不断地轮转,像一台无比强大的涡轮机,因而得名Turbo。&/b&&/p&&img src=&/v2-b91e03cebae_b.jpg& data-rawwidth=&600& data-rawheight=&339& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&/v2-b91e03cebae_r.jpg&&&br&&p&Turbo码利用迭代算法,以时间换取复杂度,第一次实现了现实可行的对香农极限的逼近。1993年,当论文的作者 (Berrou, &a href=&/?target=https%3A//en.wikipedia.org/wiki/Alain_Glavieux& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Glavieux&i class=&icon-external&&&/i&&/a&, and Thitimajshima)在ICC会议上首次将他们的成果公之于众时,人们面对几乎与香农极限平行下降的Turbo码性能曲线,都不敢相信眼前的一切,甚至怀疑是否仿真出现了错误! 而Turbo码也从此将信息理论带入了一个新的时代。Turbo码解码中外信息的发现启发了编解码领域的科学家们。1996年,人们从一堆旧论文中翻出已经被人遗忘30多年的LDPC码,对其进行了在现实复杂度内的解码,最终成就了LDPC今日的风光。&/p&&br&&p&Turbo码的发明,让人茅塞顿开。它不再是一种简单的编解码方案,而成为一种思想,人们基于这一思想开发了Turbo均衡,Turbo信道估计等应用,Turbo思想将信息理论推向了一个新的台阶。而Turbo码在3G和4G中的应用,正是移动互联网大爆发的年代,它在无形之中服务信息社会,支撑其对数据传输的需求。&/p&&br&&b&Turbo 2.0&/b&&p&随着Turbo码在3G和4G系统中得到广泛应用(以下称之为LTE Turbo),人们慢慢也发现了问题: LTE Turbo在某些码长和码率组合下, 特别是在短码情况下会出现性能衰减,即编码学里的地板效应(error floor)。 这个问题在5G标准化中被认为会影响低时延高可靠性传输业务(URLLC)。 为此,Berrou 团队再度发力,对问题源头进行了深入研究,最终得到结论: 地板效应由多方面原因叠加而成。 &/p&&br&&p&首先,Turbo 在 LTE 的应用中引入了网格终止序列(Trellis Termination Bit--TTB), 它的用途本来是让网格在编码的起始态和终止态都保持在一个已知的状态,这样有利于更高效的解码。 但是由于TTB并没有经过Turbo的双编码器保护, 它在接收端并没有像其他序列(信息或冗余序列)同等程度的纠错性, 从而造成了性能的衰减。
由于TTB的长度是固定的,这样的衰减在长码传输的情况下不是特别显著,但在短码情况下地板效应尤为明显。&/p&&br&&img src=&/v2-fa3b1e15160aeb_b.png& data-rawwidth=&428& data-rawheight=&152& class=&origin_image zh-lightbox-thumb& width=&428& data-original=&/v2-fa3b1e15160aeb_r.png&&&p&找到了问题,解决方案就水到渠成了,Turbo 2.0丢弃了TTB,而引入了咬尾(Tailing biting)的编码思路。所谓咬尾,即将卷积升级为循环卷积,这样一来不仅解决了TTB的问题,同时也提高了频谱效率(无需再传输TTB),使得TTB彻底成为了历史。&/p&&br&&p&紧接着,Berrou 团队发现,即便解决了TTB的问题,也并不能完全消除地板效应,特别在长码情况下,TTB的主导因素其实很有限, 一定还有别的原因。 再次通过深入研究发现,地板效应的另一个重要源头在于交织器和打孔(puncturing) 的优化设计。交织器在前面提到过,即将序列打乱,防止错误连续发生; 而所谓打孔, 是指在编码过程中刻意地不传输一些比特位,达到提高频谱效率的目的。在LTE时代, Turbo的交织器和打孔是独立设计的,两者并没有一个整体的优化, 这样一来有些权重比较高的信息可能会被打孔器打掉,直接导致码间最小距离(minimum distance)变短, 使得在解码的过程中引起大量的错误。 在Turbo 2.0版本下,交织和打孔得到整体优化,使得高权重的信息始终得到保留, 整套设计确保码间最小距离最大化。 自此,Turbo的地板效应问题得到彻底解决 , 并且短码性能比LDPC更卓越(如下图)。 Turbo 2.0 在设计上将Turbo理念做到近似完美。&/p&&img src=&/v2-5efaa6c685b3bcbad363_b.png& data-rawwidth=&605& data-rawheight=&418& class=&origin_image zh-lightbox-thumb& width=&605& data-original=&/v2-5efaa6c685b3bcbad363_r.png&&&br&&p&
图引用自[1]&/p&&img src=&/v2-4a77f66f5afb6_b.png& data-rawwidth=&605& data-rawheight=&382& class=&origin_image zh-lightbox-thumb& width=&605& data-original=&/v2-4a77f66f5afb6_r.png&&&p&
图引用自[2]&/p&&br&&p&虽然Turbo阵营远不如其对手强大,但如今 Berrou 团队依然带着崭新的Turbo 2.0出现在3GPP 5G标准战场,以完美性能的 Turbo 2.0与各大阵营PK。令人惋惜的是,由于话语权低,Turbo 2.0在5G编码的第一战中失利。在此,我们真心祝愿它在短码战场上取得胜利。因为无论现实世界如何,Turbo的信徒们总有孩童般的天真,他们坚信好东西可以暂时被埋没,但最终一定会被重新认可。&/p&&br&&p&仅以此文献给我们深爱的Turbo。&/p&&br&&p&[1] R1-167414, Enhanced Turbo Codes for NR: Performance Evaluation&/p&&p&[2] R1-1610314, FEC performance comparison for short frame sizes for NR&/p&&br&&br&&p&——END——&br&&/p&&p&本文为原创文章,如需转载请联系科技蜘蛛微信公众号后台。&br&&/p&&p&部分图片来自网络,如有侵权,请联系我们删除。&/p&&p&WeChat ID:techspider&/p&
本文原载于
和同名公众号(微信id:techspider)作者: Martin JIANG & 星辰一个时代的落幕 葡萄牙里斯本,当地时间10月14日,凌晨00点23分,3GPP RAN1确定 LDPC 为 5G 标准 New Radio (NR) 长码编码方案。 三天来,全球各大通信设备商、…
原题问的是“数据流量是什么”,不知道怎么又被改成“蜂窝移动网络是什么”了。说下个人的理解吧:&br&&ul&&li&蜂窝式移动通信网络一般就是代指采用蜂窝组网结构的公众移动通信网络,从俗称的1G(第一代移动通信网络)到现在的4G都可以算作是蜂窝式移动通信网络。但现实中因为地形以及用户量分布不均、建网/建站的规划、现实站址的选择和各代技术的更新迭代(比如从GSM的异频组网到现在3G和LTE的同频组网)等等种种原因,我们现在的2G、3G、LTE网络已经不能算是严格意义上的“蜂窝式”网络了,至少看起来已经不像”蜂窝“了。但是估计是已经叫习惯了,或者是为了纪念,所以一直沿用蜂窝网络这个名词来称呼公众移动通信网络吧。理想中的”蜂窝网络“是这样子的:&img src=&/e01db3e253454aeaf700c_b.jpg& data-rawwidth=&412& data-rawheight=&220& class=&content_image& width=&412&&而现实中某运营商的某区域的基站分布是这个样子的:&br&&img src=&/ab10ec5b08d9f40e65e63e1e8dd54117_b.jpg& data-rawwidth=&1402& data-rawheight=&755& class=&origin_image zh-lightbox-thumb& width=&1402& data-original=&/ab10ec5b08d9f40e65e63e1e8dd54117_r.jpg&&&/li&&/ul&=========================以下内容编辑于1.07==============================&br&&ul&&li&“数据流量“可以简单理解为&b&使用电信运营商的通信设备进行数据传输/交换时所产生的数据量,或者说是一种计价单位。&/b&类比我们平常写信、寄包裹,计价单位主要就是重量或者是体积大小。当然,计价单位不仅可以是流量,也可以是时间。&br&&/li&&li&我们使用的一切无线通信技术,都需要占用一定的频谱带宽,就像汽车要行驶就需要有路一样。&b&而有商用价值的无线频谱是稀缺且具有排他性的,因此需要合理的规划和使用。&/b&一般情况下,各国/各地区的无线频谱都受到诸如无线电管理委员会等组织的管理,可以认为是政府管控的一种战略资源。在国外一种比较通用的做法是政府将无线频谱资源拿出来拍卖,电信运营商花费重金购买其使用权,然后使用购买得到的频谱在一定地理范围内运营移动通信网络来赚钱。&b&这种类型的无线频谱我们叫做授权频谱。&/b&因此用户使用某某运营商的服务,实际上就是使用运营商花费重金购买的无线频谱来进行通信,因此需要为此付费也是正常的。而并非所有的频谱都是授权频谱,还有一些是不需要花钱买的频谱,叫做非授权频谱,这类频谱在符合无线电管理委员会的要求下使用(比如发射功率的限制),是不收费的,且任何个人团体都能使用,&b&即ISM频段(工业、科学、医疗)。目前主要的ISM频段就是2.4-2.4835GHz和5.725-5.850GHz,我们的WIFI就是工作在这个频段上&/b&。通过以上的表述,我们可以知道WIFI”免费“的一部分原因。不过在我国,电信运营商所使用的授权无线频谱是通过行政命令分配的。&br&&/li&&li&既然我国的电信运营商所使用的无线频谱是行政命令分配的,那为什么还要向用户收费?上文说了购买了无线频谱只是前提步骤,还需要众多的设备工作在这个频段上才能叫做”使用“。运营商需要购买设备,然后架设基站、光缆线路和中心机房,然后还要进行日常的维护等等,都需要大量的钱,无线频谱的购买费用和架设一张通信网络和后期维护所需要的钱都可以算是”制造成本“。&br&&/li&&li&WIFI其实也不能算完全免费,比如你买无线路由器,不也是要钱么?使用WIFI想要连接Internet,购买宽带不是也要花钱么?&/li&&li&那为什么WIFI不限制流量,而运营商的网络限制流量?WIFI上文提到过使用的是非授权频谱,只要满足无委会的要求,任何个人都可以自由使用,这就给不限量带来一个基础。再加上WIFI接入互联网大多使用ADSL、FTTH/FTTB等有线方式,由于有线通信的特点,可以做到在接入侧独享带宽,因此计价方式多为按时间计价,自然我们使用WIFI连接互联网就不限流量了。而运营商的网络在接入侧是无线的,属于共享的性质,比如一个基站下的某个扇区中的用户就是共享这个扇区下的无线资源,因此使用流量计费方式来限制部分用户行为会更加适宜。&/li&&li&其实普遍使用流量计费还应该有个重要的原因。以前在GSM上还可以使用CSD方式来上网,即电路交换,简单说就是在基站和手机的无线侧和基站一直到上层网元的有线侧都为用户保持一条独享的链路,这时就是按照时间来计费的,因为用户无论有没有数据量传输都是独占了一条链路。当然,这种方式在应对Internet业务时效率比较低,随后的GPRS、3G乃至LTE的Internet业务都是基于分组交换的,也就是用户有数据要传输时才架一条链路来传输,没有数据量了就释放掉给其他用户用,所以说分组交换和电路交换一个很大的不同就是共享和独享的区别。所以在分组交换业务下,使用流量计费会更好,而电路交换业务,仍然使用按时间计费(比如打电话)。&/li&&li&采取时间或者说不限流量的计费方式也不是不行,但是肯定要添加一些附加条件,比如较高的费用,比如达到一定数据量时进行限速等等。全民低价不限流量不限速,在现有的技术看来,是不切实际的。&/li&&li&那运营商如何操控?实际上就像配置自己的无线路由器一样,现在的无线路由器都提供了丰富的控制管理功能,什么MAC地址绑定啊,流量计算啊,局域网功能啊,MAC地址过滤啊,IP带宽控制啊等等。同样的,电信运营商的网络设备也具备众多的管理控制功能。有兴趣可以搜一下一些通信厂家的产品文档。&/li&&/ul&个人观点,仅供参考。
原题问的是“数据流量是什么”,不知道怎么又被改成“蜂窝移动网络是什么”了。说下个人的理解吧: 蜂窝式移动通信网络一般就是代指采用蜂窝组网结构的公众移动通信网络,从俗称的1G(第一代移动通信网络)到现在的4G都可以算作是蜂窝式移动通信网络。但现…
首先要明确一点就是,把LTE TDD说成是”自主技术“是不正确的说法,LTE TDD是LTE的时分双工模式,由著名的3GPP组织进行协议制定和标准化,3GPP组织成员来自五湖四海各个国家,成员中的各个公司都可以向项目组提交文稿,然后经过技术PK和口水仗后都可能会纳入到协议中,成为正式的规范,最后发布出来由厂家们依据协议开发产品,实现彼此的兼容和互通。所以把LTE TDD说成是”自主研发“”自主设计“之类的,个人认为不准确。&br&4G LTE相对于3G有什么突破?&br&&ul&&li&技术方面:LTE使用了更大载波带宽,还支持灵活带宽(比如可以使用10MHz或者15MHz来组网等等),最高允许20MHz的带宽,后期还可以借助载波聚合技术,最高允许聚合起100MHz的频谱!目前移动也已经在进行2x20MHz频谱聚合实验。根据香农定理,使用的频谱越多,就可以获得更高的速率,相比之下3G中的WCDMA是使用5MHz的载波带宽,运用双载波技术可以提升到10MHz,但是依然只有LTE的一半。LTE中还引入了MIMO技术,也有效的增强了速率的传输。虽然3G中也有引入MIMO技术,但是现网中联通并没有使用。网络结构上,LTE削减了传统蜂窝网络中BSC/RNC这个层级,基站直接连接核心网,再加上帧结构TTI的缩短(HSPA允许2ms的TTI,LTE则是1ms)以及信令、RRC连接流程等等的优化,总之就是相对于3G来说降低了时延,提升用户感受。另外帧结构上还有什么保护间隔、循环前缀,实际工程上还使用GPS授时来应用MBSFN、eICIC等技术,再加上LTE本身的大带宽优势,这些都有助于提升抗干扰能力和提升信噪比,所以LTE往往在接收功率很低的情况下(低至-100dBm以下),也能跑出不错的速率。不过3G由于应用CDMA技术,因此在抗干扰能力上其实也是挺强的。总之就技术方面来说,LTE肯定是比3G多了许多优势的。PS:一些专有名词就不解释了,有兴趣可以自行百度或者维基、谷歌之类的~&/li&&li&运营方面:LTE的高速率有利于多种业务的应用,比如物联网、手机电视(eMBMS业务,3G也有,不过受限于政策等等原因,国内没有商用)、汽车无线互联、政府信息化系统、交通系统等等。LTE的核心网——IMS的部署是未来的趋势,IMS系统可以实现大而全的业务承载,有利于降低未来运营维护的成本和压力,也便于新业务的扩展等等。总之运营这方面还是得运营商自己多想想怎么搞。&/li&&/ul&怎么打翻身仗呢?&br&我个人是觉得移动貌似也没有被”压着“过,每年的财报一样很漂亮,营收和利润都数倍甚至十倍于其他运营商,至今也占据着移动通信市场六成到七成的份额,所以”翻身仗“这个词我觉得有点夸张。倒不如说怎么找回曾经的辉煌吧。&br&&ul&&li&网络建设投入力度:从移动高层到底下的省市公司,可以说都是摩拳擦掌大力建LTE TDD,”50W基站“、”覆盖300+城市“等等字眼都可以凸显这次移动的决心。从本地观察来看,这一两年的LTE TDD建设几乎就赶上了过去好几年(大约从07年到12年)的TD-SCDMA建设,可以说在决心和速度上都是空前的,目前在进行向郊区、农村甚至是山区扩展以及室分建设。目前的LTE TDD宏站位于F频段(MHz)或者D频段(MHz),相对而言都比较高,绕射能力和路损比低频段都差,所以网络规划和建设这方面真的还得继续下一番功夫。&/li&&li&运营方面:移动下调流量资费的新闻应该都看过了,包括其他各种4G套餐资费下调的新闻。但是这里可以说下本地移动的一个策略,那就是不需要使用4G套餐,只要用户手机支持LTE TDD,更换USIM卡后就可以使用4G网络,这可是一个很不错的策略,本地联通在前两年才开始进行这样的策略,也就是只要用户手机支持WCDMA,就可以使用3G网络,而本地移动在4G商用仅仅不到一年时间就敢这样子做,可以说不但是对网络的信心,也是运营策略上的一个突破。&/li&&/ul&题外话:当然,联通和电信也不能坐着什么都不做,16城市开始试商用LTE FDD就是一个行动的表现,”实验牌照“一下来,部分城市的联通和电信就开始发布套餐宣布试商用,不觉得有猫腻?所以其实联通和电信的LTE FDD建设也是如火如荼,管他什么牌照,得到高层的许可之后,没有牌照也是一样建,名曰”实验网“,可是你见过一个城市的”实验网“具备上千站点规模的么?媒体和部分舆论到处宣传”联通用3G对抗移动4G“、”电信3G没了演进路线,坐着等倒闭“之类的,其实更多的是媒体的一种舆论论调,吸引眼球而已。没人会想用3G去对抗对方的4G,在牛x的设备商帮助下,没有演进路线也给你搞出一条来。联通和电信现在属于表面上看着好像没动静,暗地里也在大力搞LTE。所以4G时代,我觉得像2G、3G时代那样大开大合的争抢用户的情况或许会比较少见,三家运营商应该主要是保持现在的用户,发展存量用户。最后是谢邀。&br&个人观点,仅供参考。&br&12.31:BUG fix。
首先要明确一点就是,把LTE TDD说成是”自主技术“是不正确的说法,LTE TDD是LTE的时分双工模式,由著名的3GPP组织进行协议制定和标准化,3GPP组织成员来自五湖四海各个国家,成员中的各个公司都可以向项目组提交文稿,然后经过技术PK和口水仗后都可能会纳…
&ol&&li&&b&无线频谱具有排他性和有限性,所以无线频谱需要通过行政等手段来进行合理的分配和规划使用及管理&/b&(可以是有偿使用,比如世界上大多数国家都选择对频谱进行拍卖,每次拍卖都可以获利少则数亿、多则数百亿美元的所得,也可以是无偿使用,比如中国的频谱就是通过行政命令分配使用的,还有ISM频段在小发射功率、小范围的情况下在世界范围内也是无偿使用的)。&br&&/li&&li&&a href=&///?target=http%3A///view/392730.htm%3Ffr%3Daladdin& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&香农定理_百度百科&i class=&icon-external&&&/i&&/a&香农定理告诉人们,想要获得更大的容量(速率),那么可选的手段有两个,一个是提升信噪比,一个是提升频谱带宽,但是无线通信由于其应用环境的复杂性,所以要提升信噪比往往会比较难,因此使用大带宽是一个相对来说更容易的手段,而且可以适当降低对信噪比的要求。&/li&&/ol&以上是两个大前提。&br&&ul&&li&首先说优势:高频段的好处就是频谱资源比较丰富,许多还没有使用过,相对低频段来说很“纯净”,没有太多的干扰,比如2.5-2.69GHz,就相当纯净,这点对于无线通信很重要,可以更好的适应信噪比的需求,比如移动使用D频段建设LTE TDD,有时候信号很差,但是由于信噪比还不错,往往测试的速率也很可观,这不仅是LTE大带宽的优势,还是因为D频段足够纯净。高频段由于没怎么用过,因此可分配的带宽也大,比如2.5GHz到2.69GHz多达190MHz的丰富频谱可供使用,低频段的话,比如800MHz/900MHz等较为优质的频段,已经基本分配完了,目前都有商用无线通信系统占用着。因此大带宽可以很好的满足LTE的需求,LTE一个完整的载波带宽是20MHz(FDD则为上下行各20MHz),未来应用载波聚合最多可以聚合起100MHz的频谱,要在低频段凑齐这么多频谱实在太难了,所以只能往没怎么用过的高频段去凑这么多频谱。当然,目前的载波聚合技术也允许跨频段聚合,比如可以聚合900MHz频段和1800MHz频段的频谱,可以聚合1800MHz频段和2100MHz频段的频谱,但是由于跨频段的聚合涉及到宽频带的处理,以及不同频段会有不同的链路损耗等等,会对射频器件和相应的软件算法提出更高的要求,比较理想的还是同频段的连续频谱载波聚合。&/li&&li&再来就是劣势:高频段相对低频段来说路径损耗和绕射能力都比较差,所以假设同样的两个基站,天线的方向角、增益、下倾角、发射功率等等参数都相同,那使用高频段的基站无论是覆盖距离还是覆盖深度,都是不如使用低频段的基站的,显著的例子就是中国电信使用800MHz频段建设其3G网络,相对于在MHz建设3G的中国移动和在2100MHz频段上建设3G的中国联通来说,中国电信的覆盖更受用户的好评,这和使用800MHz频段的先天优势是有很大的关系的。&/li&&li&题外话:那是不是频段越低越好呢?其实也不能这么绝对,频段低了,带来优良的绕射性能和路径损耗小这样的能力,在网络规划中反而有时候会成为一个难题,因为现在的蜂窝网络很多都是同频组网(比如CDMA2000、WCDMA、LTE),如果工程参数设置不好(天线的方向角、下倾角等等),那基站很容易产生越区覆盖的问题(就是覆盖到不应该是自己覆盖的地方),越区覆盖会直接带来信噪比恶化、切换失败导致掉话等等问题,影响用户感受。所以实际上人们希望能使用来构建商用蜂窝网络的频段既不要太高,也不要太低,高低适中刚刚好,然后又有丰富的频谱可供使用。&/li&&/ul&PS:谢邀。顺便联通在1800MHz应该是和MHz共15MHz的FDD频谱资源吧?最近由于实验LTE FDD应该是又多获得了和MHz共10MHz的FDD频谱了~
无线频谱具有排他性和有限性,所以无线频谱需要通过行政等手段来进行合理的分配和规划使用及管理(可以是有偿使用,比如世界上大多数国家都选择对频谱进行拍卖,每次拍卖都可以获利少则数亿、多则数百亿美元的所得,也可以是无偿使用,比如中国的频谱就是通…
更新:&br&有小伙伴发信让我推荐几本无线通信方面的书:&br&1)如果是刚接触无线通信,想知道无线通信是干什么的,都需要哪些技术,难点在哪,想对无线通信有个系统的了解,我推荐你读最近比较火热的杨学志老师的《通信之道》。&br&&a href=&///?target=http%3A//bbs.c114.net/thread--1.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【通信之道】通信原理基础读本,实体书热销中!&i class=&icon-external&&&/i&&/a&&br&这本书里包含了无线通信信号处理方面的基础知识,很全面,深入浅出,方便理解,适合初学者,同时也可以给研究人员提供指导和参考。&br&&br&2)如果你计划读无线通信方面的研究生,想打下坚实的理论基础,我推荐读经典的无线通信英文书籍,在这些书里你会很意外的发现:这里讲解并证明了很多论文里经常提到的前提条件/假设,比如为什么天线间距离要大于1/2波长,信道模型为什么是那个样子的等。首先推荐IEEE Fellow/斯坦福大学 David Tse教授写的《Fundamentals of Wireless Communications》&br&&a href=&///?target=http%3A///s/1kVNef91& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://&/span&&span class=&visible&&/s/1kVNef9&/span&&span class=&invisible&&1&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&IEEE Fellow/斯坦福大学Andrea Goldsmith教授的《Wireless Communications》&br&&a href=&///?target=https%3A//.hk/books%3Fhl%3Dzh-CN%26lr%3D%26id%3DZtFVAgAAQBAJ%26oi%3Dfnd%26pg%3DPP1%26dq%3DA.%2BGoldsmith%2C%2BWireless%2Bcommunications%26ots%3DWp05i3fBmD%26sig%3DgCg_YyHwfrwEmI4sEwvbTHgWAz8%23v%3Donepage%26q%3DA.%2520Goldsmith%252C%2520Wireless%2520communications%26f%3Dfalse& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&.hk/boo&/span&&span class=&invisible&&ks?hl=zh-CN&lr=&id=ZtFVAgAAQBAJ&oi=fnd&pg=PP1&dq=A.+Goldsmith,+Wireless+communications&ots=Wp05i3fBmD&sig=gCg_YyHwfrwEmI4sEwvbTHgWAz8#v=onepage&q=A.%20Goldsmith%2C%20Wireless%20communications&f=false&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&&br&3)学术研究少不了谷歌和谷歌学术,分享两个实用软件,轻松解决上不了谷歌等问题&br&lantern + Chrome&br&-------------------------------------------------------------------------------------------------------------&br&我的研究方向是大规模MIMO,一切关于大规模MIMO的问题都欢迎讨论~~~&br&——————————————————————————————————&br&目前,5G通信中可能被应用的关键技术正处于研究阶段,根据我的学习和了解,截止目前还没有任何一项技术(物理层技术)能引发新一代通信技术的变革。&br&&br&之所以这样说,是因为纵观通信系统的发展历程,每一代通信系统都会有一个新的技术产生,并给通信系统性能带来质的飞跃~比如,第一代通信系统采用的是模拟技术,基本只能面向模拟通话,而从第二代开始采用数字技术,可以使用网络,第三代开始采用CDMA无线接入技术,并可以实现多媒体服务,第四代采用多天线多载波技术,大幅提升通信速率的同时也可以支持多样化个性化的服务。题主提到的OFDM(正交频分复用,多载波调制技术)和MIMO(多输入多输出天线技术)就是4G中必不可少的关键技术,针对OFDM的研究已经非常广泛,非常成熟,并且鉴于OFDM载波间正交等优点,OFDM技术可以和MIMO多天线技术完美配合,并且其中有个非常重要的技术是波束成形/预编码技术~~~MIMO是指发送端多天线,接收端多天线,但其实在4G中常讨论的多天线数一般为2*2/4*4/8*8,也有16*16/32*32.而目前正在被研究的5G的关键技术(物理层)大多是在4G技术上的改进技术,并没有变革性的技术担当。&br&&br&我这里列举几个我比较熟悉的正在研究的5G关键技术:&br&&br&&b&1. 大规模MIMO&/b&&br&我看现有的答案里对大规模MIMO的认识其实有些不太正确,大规模MIMO技术是2010年由贝尔实验室的教授提出,这里大规模天线的规模一般指&b&上百跟甚至上千根&/b&,远远大于4G中的天线数目。虽然大规模MIMO是在4G中MIMO技术的基础上增加基站端发射天线数目,而MIMO技术研究已较为成熟,但是当天线数目剧增时,信道的特性如何变化,FDD模式下如何信道估计等问题也应运而生。近几年很多高校和公司都在研究大规模MIMO的测试平台,其中非常著名的是隆德大学的平台,如下图&br&&img src=&/3df1bac4aebbe_b.jpg& data-rawwidth=&1139& data-rawheight=&690& class=&origin_image zh-lightbox-thumb& width=&1139& data-original=&/3df1bac4aebbe_r.jpg&&&br&&b&2.毫米波通信&/b&&br&现在所用的频段资源是非常稀缺的(2.6GHz以下频段),而毫米波频段(30GHz-60GHz)资源却非常丰富,尚未被充分开发利用,并且随着基站天线规模增加,为了能够在有限的空间内部署更多天线也要求通信的波长不能太长(天线距离大于1/2波长),从而毫米波也是备选技术之一。此外,毫米波通信已被写进标准用于室内的多媒体高速通信。&br&&br&&b&3.滤波器组多载波调制技术&/b&&br&典型的有FBMC/UF-OFDM/GFDM/BFDM等等,这些技术其实都是OFDM的改进技术,OFDM技术虽好,但是也存在频谱旁瓣高,对同步性要求高的缺点,并且随着&b&物联网、机器与机器间通信&/b&的普及,通信会对异步要求越来越高,因此上述新型多载波技术的发展也是很必要滴。&br&&br&&b&4.致密组网和异构网络&/b&&br&增大小区密度,从而增大系统容量、频谱复用率等。&br&&br&&b&5.D2D(device to device)、车载网络&/b&&br&提升用户的服务质量和用户体验。&br&&br&&b&6.软件定义网络SDN等&/b&&br&&br&&b&7. 认知无线电网络&/b&&br&&br&&b&8. 可见光通信&/b&&br&&br&&b&9. 绿色通信&/b&&br&资源节约型,资源利用率最大化。&br&&br&&b&10.终极的结构也许是以用户为中心,弱化小区的概念,采用云技术、分布式计算等,多种技术并存,实现复杂度低、服务多样性、通信时延小、资源利用率高,同时提升用户服务质量和用户体验。&/b&
更新: 有小伙伴发信让我推荐几本无线通信方面的书: 1)如果是刚接触无线通信,想知道无线通信是干什么的,都需要哪些技术,难点在哪,想对无线通信有个系统的了解,我推荐你读最近比较火热的杨学志老师的《通信之道》。
很难想象这一问题2年间居然没有一个说对的。最高票答案说得很简单,但缺充满了致命伤。&br&&br&&b&先简单回答楼主问题:&/b&&br&&strong&「&/strong&我今天刚安了一个全新的无线路由,如果是用iPhone类似的具有GPS功能的手机来收集MAC地址和SSID,不可能立刻就收集进数据库,但是我可以同样得到1Km范围的定位&strong&」&/strong&&br&&br&原因很简单:&br&&ul&&li&Wi-Fi定位并不只是拿设备正在使用的Wi-Fi当定位依据,此时手机(或其他无线设备)会扫描周围所有的Wi-Fi信号,并把它们当作定位依据。&br&&/li&&li&Wi-Fi定位时,不需要手机(或其他无线设备)连接Wi-Fi。因为Wi-Fi定位的依据是Wi-Fi的BSSID和RSSI,这两个定为依据在Wi-Fi未被连接的情况下,也可以被手机等无线设备获取。&/li&&/ul&&b&以下是详细的Wi-Fi定位原理:&/b&&br&WiFi 定位这事儿其实非常好理解。先打个比方,你现在突然出现在一片荒凉的大草原上,不知道自己身处何方,但神奇的是你身边居然立了大于等于3根的柱子,而且每根柱子上都应有该根柱子的精确坐标。你手里居然还有一把测距仪,能够知道你离柱子的准确距离,那么恭喜你,你现在就可以算出(算法后面会介绍)自己所在位置的坐标。&br&&br&回到正题,在实际的 WiFi 定位中,你眼前的每一根柱子其实就是一个 WIFI热点(以下简称AP,Access Point),或者说路由器。每个AP都有它自己名字和它所在位置的坐标。但关键问题是,在 WIFI 定位中,柱子的坐标从哪儿来?我怎么知道我离柱子的距离?就算距离和坐标我都知道,我又怎么能算出我的位置?这就得说说 Wi-Fi定位的三个步骤:&br&&b&第一步:数据采集与制备(采集柱子的名字、制备柱子的坐标)。&br&第二步:确定移动设备与热点的距离(确定与柱子之间的距离)&br&第三步:通过算法推断出移动设备的位置(通过柱子的坐标与我与柱子的距离,得到我的位置坐标)&/b&&br&&br&&b&一、数据采集与制备:&/b&&br&&b&不管你的手机有没有连接 Wi-Fi,手机都会扫描附近存在的WIFI 信号&/b&,如果扫描出某个WIFI 信号,那么手机系统就可以知道发出WIF信号的AP 的BSSID(MAC 地址) ,也就是这个 WIFI在地球上唯一的名字。此刻如果你的手机还用 GPS 定上了位,那么在采集方的数据库里就会添加一条数据,【BSSID、(X1,Y1)】,其中(X1,Y1)正是GPS 定位得到的坐标。但是(X1,Y1)并不是 AP 的位置,而是手机的位置,因为手机实际离 AP存在一定的距离。为了得到更精确的 AP 位置坐标,此AP 会被大量的手机扫描到,并重复采集。如果此 AP 被采集了 N 次,那么在数据库里,实际的AP信息应该是【BSSID、(X1,Y1),(X2,Y2)...(Xn,Yn)】。&br&一个 AP可能只被采集一次, 可能被采集上百次。当AP被采集的次数越多,通过算法计算出的 AP 坐标也就越精准。经过算法处理(三角定位算法,后面会介绍),最终该热点的位置数据应该是【BSSID、(X,Y)】。&br&PS:如果一个AP 能够被不断采集,那么此 AP 的坐标随着采集次数的增多而不断地迭代,其坐标也会越来越精准。&br&&img src=&/e682d0ab7e921eb59d8c_b.jpg& data-rawwidth=&876& data-rawheight=&667& class=&origin_image zh-lightbox-thumb& width=&876& data-original=&/e682d0ab7e921eb59d8c_r.jpg&&&b&二、确定移动设备与热点之间的距离:&/b&&br&WIFI 信号和太阳光一样,都是电磁波。只是 WIFI 信号和光有两点较大的不同:一是 WIFI 信号 的波长比光长许多,二是太阳光的发射源是太阳,WIFI 的发射源是 AP(如路由器)。既然 WIFI 信号也是电磁波,那么WIFI 的信号强度必然也会随着传播距离的增加而衰减。&br&当手机连接上某一 WIFI 时,手机的系统会记录手机能够捕获的 WIFI 信号强度-RSSI。既然 WIFI 信号会随着距离衰减,那么通过RSSI=a+b*log(d)的理想化模型便可以计算出手机距离路由器的长度 d。当理想化模型终究是理想化模型,无线信号因为干扰、反射等等原因,我们计算出的距离其实并不太准确。&br&&img src=&/cc4b6e6d7bc7c43a6f40c1_b.jpg& data-rawwidth=&824& data-rawheight=&745& class=&origin_image zh-lightbox-thumb& width=&824& data-original=&/cc4b6e6d7bc7c43a6f40c1_r.jpg&&&br&&br&三、&b&通过算法推断出移动设备的位置&/b&&br&有了热点的坐标和到热点的距离,就得靠定位算法来帮助我们定位了。&br&Wi-Fi 定位的算法其实有很多,目前主流的有三种算法:&br&&ul&&li&三角定位算法&/li&&li&指纹定位算法&br&&/li&&li&最大似然估算法&/li&&/ul&&b&三角定位算法&/b&&br&说白了就是以 AP 的坐标为圆心画圆,圆的半径是我与热点之间的距离,三圆重叠处就有可能是我的位置,其中的推倒证明公式初中就教了,就不在这里细说了。&br&&img src=&/15b4b8fd4af239f04429cbd18136cd49_b.jpg& data-rawwidth=&474& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&474& data-original=&/15b4b8fd4af239f04429cbd18136cd49_r.jpg&&&br&但是三角定位也有其缺点,就是定位结果非常不精准。原因很简单,因为 AP 的位置和手机距离 AP 的长度都是推算出的,误差+误差=更大的误差。&br&&br&&b&指纹定位算法&/b&&br&这算法只能在学校实验室拿小样本来玩儿玩儿,真正做 Wi-Fi 定位的 App根本不敢用。因为这一算法的核心思想就是大量的数据存储、大量的query查询。&br&简单介绍一下指纹算法,回到「&b&数据采集与制备&/b&」,当手机获取到 GPS 定位信息的同时,手机会扫描周围所有 AP 的 BSSID。这时所有能采集到的 BSSID 序列就成了指纹存储在数据库中,指向的是收集到该指纹的坐标。当有手机采集的 BSSID 序列能够匹配之前采集到的指纹(BSSID序列),那么就可以认为此时的坐标正是指纹所指向向的坐标。&br&&img src=&/f24fa315a1f743_b.jpg& data-rawwidth=&424& data-rawheight=&209& class=&origin_image zh-lightbox-thumb& width=&424& data-original=&/f24fa315a1f743_r.jpg&&&br&指纹算法也有致命缺点:一是采集量需要非常大。二是对服务端性能和数据存储要求太高。三是 WIFI 不密集的地方,定位结果会非常糟糕。&br&&br&&b&最大似然定位法&/b&&br&目前最靠谱的 Wi-Fi 定位算法。说白了就是三角定位法加入了概率论的因素。感兴趣的同学可自己琢磨和研究。&br&&br&&br&&b&简单说说Wi-Fi 定位的一些有意思的坑:&/b&&br&&b&跨省定位&/b&:万万没想到,万万没想到,Wi-Fi 定位这件事儿在中国居然可以出现跨省定位这样的严重错误。原因就是某家王八蛋路由器生产商根本不遵守一台设备一个 BSSID 的原则。数据库里这条 BSSID 的坐标明明是在大砍省,没想到大吃省居然有一片路由器用了同一个 BSSID,砍省瞬间变吃省。另外,这家王八蛋生产商名叫腾达,堂堂腾达居然连买MAC地址的钱都没有,还是请腾达早日滚蛋破产。&br&&b&移动 Wi-Fi:&/b&你能想到吗,现在公交车上都各种装AP啊,公交车带着 Wi-Fi 满大街跑,你叫我拿你的 Wi-Fi定个毛位啊!我又怎么知道你这是公交车上的 Wi-Fi 啊(其实可以^-^)!!&br&&b& Wi-Fi 集体搬家:&/b&唯一能打倒概率论的敌人。玩了 Wi-Fi 定位后,某天你会发现四川某大学所有的校园 AP(移动)全部出现在了西安某大学里面,数量多达上百个。可怜的西安某大学学生,只能看着地图上的四川地图哭啊!你还敢玩儿概率论??(当然还得玩)&br&&b&高层建筑内的 WIFI定位:&/b&在高层建筑中,手机几乎不可能连上 GPS,也自然无法采集到 AP 的位置。这个坑也有解,考验的是研发同学的实现能力和算法设计能力。&br&&br&&b&另外,说说为什么 iPhone 可以在无网状态下定位 &a data-hash=&873abd3b6e6b3f32cd6eb1c3273be81a& href=&///people/873abd3b6e6b3f32cd6eb1c3273be81a& class=&member_mention& data-editable=&true& data-title=&@Ts8zs& data-tip=&p$b$873abd3b6e6b3f32cd6eb1c3273be81a& data-hovercard=&p$b$873abd3b6e6b3f32cd6eb1c3273be81a&&@Ts8zs&/a& :&/b&&br& 当iPhone 获取到WIFI 定位结果后,会在客户端保存一份定位结果,比如「(x1,y1),BSSID1,BSSID2。。。BSSIDn」。即便 iPhone 没有联网,只要扫描到其中一个 BSSID,iOS 即认为此时的位置是(x1,y1)&br&PS:不连接 WIFI,手机也可以获取 WIFI 的 BSSID 和 RSSI。&br&&br&&b&最后,说一些对 WIFI定位的常见误区:&/b&&br&&b&一、第三方无法在 iOS 上获取 RSSI,「至于你们第三方的地图应用,自己玩泥巴去吧~」&/b&&br&前半句是对的,&b&后半句大错特错&/b&。苹果的wifi定位能力和精度是神一般的存在,完爆谷歌和国内任何一个定位团队。在某些场景下,普通用户甚至无法察觉现在是 WIFI 定位还是 GPS 定位。&br&另外,真正玩泥巴的是国内的安卓应用,iOS 应用只要调取苹果的网络定位 API 即可获取最高水准的WIFI定位结果。开发者省时省力,用户也能获得最好的体验。&br&二、&b&「iPhone 在向 Google 提交数据时,总是把所有可能有用的数据同时提交上去,包括 IP、基站编号、Wi-Fi MAC 地址等等&/b&&b&,然后 Google 返回尽可能精确的定位信息&/b&&b&」&/b&&br&很难相信说出这话的同学 &a data-hash=&11ca7f85ad9fff60c29c9& href=&///people/11ca7f85ad9fff60c29c9& class=&member_mention& data-editable=&true& data-title=&@Cat Chen& data-tip=&p$b$11ca7f85ad9fff60c29c9& data-hovercard=&p$b$11ca7f85ad9fff60c29c9&&@Cat Chen&/a&是位 Facebook 的工程师。只要第三方iOS 应用无法获取 WIFI 的 RSSI,就无法进行WIFI 定位(指纹算法也不行,因为 iOS 第三方只能知道当前连接 WIFI 的 BSSID 地址,iOS 7连当前连接的 WIFI BSSID 都无法获取了。)&br&事实上非越狱状态下,iOS 的第三方应用就是无法获取WIFI 的 RSSI。因此 Google Maps 无法上传关键的定位要素,自然也无法得到自家生产的定位结果。&br&&b&三、「IP 定位」&/b&&br&难以置信有人会这么说,就算猜答案也应该有点计算机网络的基础常识。如果真用 IP 来定位,定位的精度会比基站定位的精度还低。一般 WIFI 定位的精度在500米以内。&br&&b&四、想用 WIFI 定位,必须连上 WIFI&/b&&br&手机不用连WIFI,也可以扫描得到附近 WIFI的 BSSID和 RSSI。一般在小区楼底打开地图的前几分钟,都是 WIFI 定位的结果。
很难想象这一问题2年间居然没有一个说对的。最高票答案说得很简单,但缺充满了致命伤。 先简单回答楼主问题: 「我今天刚安了一个全新的无线路由,如果是用iPhone类似的具有GPS功能的手机来收集MAC地址和SSID,不可能立刻就收集进数据库,但是我可以同样得…
&p&----&/p&&p&原文转载自人人网,原作者不详,请见谅,向原作者致敬&/p&&p&__&/p&&p&第一课 什么是卷积 卷积有什么用 什么是傅利叶变换 什么是拉普拉斯变换 &/p&&p&引子&/p&&p&很多朋友和我一样,工科电子类专业,学了一堆信号方面的课,什么都没学懂,背了公式考了试,然后毕业了。&/p&&p&先说”卷积有什么用”这个问题。(有人抢答,”卷积”是为了学习”信号与系统”这门课的后续章节而存在的。我大吼一声,把他拖出去枪毙!)&/p&&p&讲一个故事:&/p&&p&张三刚刚应聘到了一个电子产品公司做测试人员,他没有学过”信号与系统”这门课程。一天,他拿到了一个产品,开发人员告诉他,产品有一个输入端,有一个输出端,有限的输入信号只会产生有限的输出。&/p&&p&然后,经理让张三测试当输入sin(t)(t&1秒)信号的时候(有信号发生器),该产品输出什么样的波形。张三照做了,花了一个波形图。&/p&&p&“很好!”经理说。然后经理给了张三一叠A4纸: “这里有几千种信号,都用公式说明了,输入信号的持续时间也是确定的。你分别测试以下我们产品的输出波形是什么吧!”&/p&&p&这下张三懵了,他在心理想”上帝,帮帮我把,我怎么画出这些波形图呢?”&/p&&p&于是上帝出现了: “张三,你只要做一次测试,就能用数学的方法,画出所有输入波形对应的输出波形”。&/p&&p&上帝接着说:”给产品一个脉冲信号,能量是1焦耳,输出的波形图画出来!”&/p&&p&张三照办了,”然后呢?”&/p&&p&上帝又说,”对于某个输入波形,你想象把它微分成无数个小的脉冲,输入给产品,叠加出来的结果就是你的输出波形。你可以想象这些小脉冲排着队进入你的产品,每个产生一个小的输出,你画出时序图的时候,输入信号的波形好像是反过来进入系统的。”&/p&&p&张三领悟了:” 哦,输出的结果就积分出来啦!感谢上帝。这个方法叫什么名字呢?”&/p&&p&上帝说:”叫卷积!”&/p&&p&从此,张三的工作轻松多了。每次经理让他测试一些信号的输出结果,张三都只需要在A4纸上做微积分就是提交任务了!&/p&&p&—————————————-&/p&&p&张三愉快地工作着,直到有一天,平静的生活被打破。&/p&&p&经理拿来了一个小的电子设备,接到示波器上面,对张三说: “看,这个小设备产生的波形根本没法用一个简单的函数来说明,而且,它连续不断的发出信号!不过幸好,这个连续信号是每隔一段时间就重复一次的。张三,你来测试以下,连到我们的设备上,会产生什么输出波形!”&/p&&p&张三摆摆手:”输入信号是无限时长的,难道我要测试无限长的时间才能得到一个稳定的,重复的波形输出吗?”&/p&&p&经理怒了:”反正你给我搞定,否则炒鱿鱼!”&/p&&p&张三心想:”这次输入信号连公式都给出出来,一个很混乱的波形;时间又是无限长的,卷积也不行了,怎么办呢?”&/p&&p&及时地,上帝又出现了:”把混乱的时间域信号映射到另外一个数学域上面,计算完成以后再映射回来”&/p&&p&“宇宙的每一个原子都在旋转和震荡,你可以把时间信号看成若干个震荡叠加的效果,也就是若干个可以确定的,有固定频率特性的东西。”&/p&&p&“我给你一个数学函数f,时间域无限的输入信号在f域有限的。时间域波形混乱的输入信号在f域是整齐的容易看清楚的。这样你就可以计算了”&/p&&p&“同时,时间域的卷积在f域是简单的相乘关系,我可以证明给你看看”&/p&&p&“计算完有限的程序以后,取f(-1)反变换回时间域,你就得到了一个输出波形,剩下的就是你的数学计算了!”&/p&&p&张三谢过了上帝,保住了他的工作。后来他知道了,f域的变换有一个名字,叫做傅利叶,什么什么… …&/p&&p&—————————————-&/p&&p&再后来,公司开发了一种新的电子产品,输出信号是无限时间长度的。这次,张三开始学拉普拉斯了……&/p&&p&后记:&/p&&p&不是我们学的不好,是因为教材不好,老师讲的也不好。&/p&&p&很欣赏Google的面试题: 用3句话像老太太讲清楚什么是数据库。这样的命题非常好,因为没有深入的理解一个命题,没有仔细的思考一个东西的设计哲学,我们就会陷入细节的泥沼: 背公式,数学推导,积分,做题;而没有时间来回答”为什么要这样”。做大学老师的做不到”把厚书读薄”这一点,讲不出哲学层面的道理,一味背书和翻讲 ppt,做着枯燥的数学证明,然后责怪”现在的学生一代不如一代”,有什么意义吗?&br&第二课 到底什么是频率 什么是系统?&br&这一篇,我展开的说一下傅立叶变换F。注意,傅立叶变换的名字F可以表示频率的概念(freqence),也可以包括其他任何概念,因为它只是一个概念模型,为了解决计算的问题而构造出来的(例如时域无限长的输入信号,怎么得到输出信号)。我们把傅立叶变换看一个C语言的函数,信号的输出输出问题看为IO 的问题,然后任何难以求解的x-&y的问题都可以用x-&f(x)-&f-1(x)-&y来得到。&/p&&p&1. 到底什么是频率?&/p&&p&一个基本的假设: 任何信息都具有频率方面的特性,音频信号的声音高低,光的频谱,电子震荡的周期,等等,我们抽象出一个件谐振动的概念,数学名称就叫做频率。想象在x-y 平面上有一个原子围绕原点做半径为1匀速圆周运动,把x轴想象成时间,那么该圆周运动在y轴上的投影就是一个sin(t)的波形。相信中学生都能理解这个。&/p&&p&那么,不同的频率模型其实就对应了不同的圆周运动速度。圆周运动的速度越快,sin(t)的波形越窄。频率的缩放有两种模式&/p&&p&(a) 老式的收音机都是用磁带作为音乐介质的,当我们快放的时候,我们会感觉歌唱的声音变得怪怪的,调子很高,那是因为”圆周运动”的速度增倍了,每一个声音分量的sin(t)输出变成了sin(nt)。&/p&&p&(b) 在CD/计算机上面快放或满放感觉歌手快唱或者慢唱,不会出现音调变高的现象:因为快放的时候采用了时域采样的方法,丢弃了一些波形,但是承载了信息的输出波形不会有宽窄的变化;满放时相反,时域信号填充拉长就可以了。&/p&&p&2. F变换得到的结果有负数/复数部分,有什么物理意义吗?&/p&&p&解释: F变换是个数学工具,不具有直接的物理意义,负数/复数的存在只是为了计算的完整性。&/p&&p&3. 信号与系统这们课的基本主旨是什么?&/p&&p&对于通信和电子类的学生来说,很多情况下我们的工作是设计或者OSI七层模型当中的物理层技术,这种技术的复杂性首先在于你必须确立传输介质的电气特性,通常不同传输介质对于不同频率段的信号有不同的处理能力。以太网线处理基带信号,广域网光线传出高频调制信号,移动通信,2G和3G分别需要有不同的载频特性。那么这些介质(空气,电线,光纤等)对于某种频率的输入是否能够在传输了一定的距离之后得到基本不变的输入呢? 那么我们就要建立介质的频率相应数学模型。同时,知道了介质的频率特性,如何设计在它上面传输的信号才能大到理论上的最大传输速率?—-这就是信号与系统这们课带领我们进入的一个世界。&/p&&p&当然,信号与系统的应用不止这些,和香农的信息理论挂钩,它还可以用于信息处理(声音,图像),模式识别,智能控制等领域。如果说,计算机专业的课程是数据表达的逻辑模型,那么信号与系统建立的就是更底层的,代表了某种物理意义的数学模型。数据结构的知识能解决逻辑信息的编码和纠错,而信号的知识能帮我们设计出码流的物理载体(如果接受到的信号波形是混乱的,那我依据什么来判断这个是1还是0? 逻辑上的纠错就失去了意义)。在工业控制领域,计算机的应用前提是各种数模转换,那么各种物理现象产生的连续模拟信号(温度,电阻,大小,压力,速度等) 如何被一个特定设备转换为有意义的数字信号,首先我们就要设计一个可用的数学转换模型。&/p&&p&4. 如何设计系统?&/p&&p&设计物理上的系统函数(连续的或离散的状态),有输入,有输出,而中间的处理过程和具体的物理实现相关,不是这们课关心的重点(电子电路设计?)。信号与系统归根到底就是为了特定的需求来设计一个系统函数。设计出系统函数的前提是把输入和输出都用函数来表示(例如sin(t))。分析的方法就是把一个复杂的信号分解为若干个简单的信号累加,具体的过程就是一大堆微积分的东西,具体的数学运算不是这门课的中心思想。&/p&&p&那么系统有那些种类呢?&/p&&p&(a) 按功能分类: 调制解调(信号抽样和重构),叠加,滤波,功放,相位调整,信号时钟同步,负反馈锁相环,以及若干子系统组成的一个更为复杂的系统—-你可以画出系统流程图,是不是很接近编写程序的逻辑流程图? 确实在符号的空间里它们没有区别。还有就是离散状态的数字信号处理(后续课程)。&/p&&p&(b) 按系统类别划分,无状态系统,有限状态机,线性系统等。而物理层的连续系统函数,是一种复杂的线性系统。&/p&&p&5. 最好的教材?&/p&&p&符号系统的核心是集合论,不是微积分,没有集合论构造出来的系统,实现用到的微积分便毫无意义—-你甚至不知道运算了半天到底是要作什么。以计算机的观点来学习信号与系统,最好的教材之一就是&&Structure and Interpretation of Signals and Systems&&,作者是UC Berkeley的Edward A.Lee and Pravin Varaiya—-先定义再实现,符合人类的思维习惯。国内的教材通篇都是数学推导,就是不肯说这些推导是为了什么目的来做的,用来得到什么,建设什么,防止什么;不去从认识论和需求上讨论,通篇都是看不出目的的方法论,本末倒置了。&br&第三课 抽样定理是干什么的&/p&&p&1. 举个例子,打电话的时候,电话机发出的信号是PAM脉冲调幅,在电话线路上传的不是话音,而是话音通过信道编码转换后的脉冲序列,在收端恢复语音波形。那么对于连续的说话人语音信号,如何转化成为一些列脉冲才能保证基本不失真,可以传输呢? 很明显,我们想到的就是取样,每隔M毫秒对话音采样一次看看电信号振幅,把振幅转换为脉冲编码,传输出去,在收端按某种规则重新生成语言。&/p&&p&那么,问题来了,每M毫秒采样一次,M多小是足够的? 在收端怎么才能恢复语言波形呢?&/p&&p&对于第一个问题,我们考虑,语音信号是个时间频率信号(所以对应的F变换就表示时间频率)把语音信号分解为若干个不同频率的单音混合体(周期函数的复利叶级数展开,非周期的区间函数,可以看成补齐以后的周期信号展开,效果一样),对于最高频率的信号分量,如果抽样方式能否保证恢复这个分量,那么其他的低频率分量也就能通过抽样的方式使得信息得以保存。如果人的声音高频限制在3000Hz,那么高频分量我们看成sin(3000t),这个sin函数要通过抽样保存信息,可以看为: 对于一个周期,波峰采样一次,波谷采样一次,也就是采样频率是最高频率分量的2倍(奈奎斯特抽样定理),我们就可以通过采样信号无损的表示原始的模拟连续信号。这两个信号一一对应,互相等价。&/p&&p&对于第二个问题,在收端,怎么从脉冲序列(梳装波形)恢复模拟的连续信号呢? 首先,我们已经肯定了在频率域上面的脉冲序列已经包含了全部信息,但是原始信息只在某一个频率以下存在,怎么做? 我们让输入脉冲信号I通过一个设备X,输出信号为原始的语音O,那么I(*)X=O,这里(*)表示卷积。时域的特性不好分析,那么在频率域 F(I)*F(X)=F(O)相乘关系,这下就很明显了,只要F(X)是一个理想的,低通滤波器就可以了(在F域画出来就是一个方框),它在时间域是一个钟型函数(由于包含时间轴的负数部分,所以实际中不存在),做出这样的一个信号处理设备,我们就可以通过输入的脉冲序列得到几乎理想的原始的语音。在实际应用中,我们的抽样频率通常是奈奎斯特频率再多一点,3k赫兹的语音信号,抽样标准是8k赫兹。&/p&&p&2. 再举一个例子,对于数字图像,抽样定理对应于图片的分辨率—-抽样密度越大,图片的分辨率越高,也就越清晰。如果我们的抽样频率不够,信息就会发生混叠—-网上有一幅图片,近视眼戴眼镜看到的是爱因斯坦,摘掉眼睛看到的是梦露—-因为不带眼睛,分辨率不够(抽样频率太低),高频分量失真被混入了低频分量,才造成了一个视觉陷阱。在这里,图像的F变化,对应的是空间频率。&/p&&p&话说回来了,直接在信道上传原始语音信号不好吗? 模拟信号没有抗干扰能力,没有纠错能力,抽样得到的信号,有了数字特性,传输性能更佳。&/p&&p&什么信号不能理想抽样? 时域有}

我要回帖

更多关于 lte rssi 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信