主机与主机之间的通信是什么层

不同类型的硬件加速器几乎与通鼡CPU同时被提出和开发沿着摩尔定律的半导体增长的终结,引发了人们对加速器的极大兴趣实际上,Amazon和Microsoft Azure云都为用户提供了定制加速器的能力它们为云服务器提供了FPGA和GPU以供一般使用。

顾名思义特定领域的体系结构是为共享一个共同特性的一类工作负载而定制的。这些设備是可编程的不像传统的ASIC那样是硬接线的。它们的特点是集成应用程序和部署感知设备、固件、系统和软件的开发并支持特定领域的語言以便于使用。领域特定体系结构的关键属性是并行数据处理、功能特定逻辑、应用感知数据管理和控制如图1所示,与CPU和FPGA相比其性能/瓦显著提高。这里展示了两个著名的、基于领域的硅的示例即用于机器学习的Google的TPU(张量处理单元)和AI,以及用于网络和安全的Netronome的NFP

图1:特定领域的硅可提供更高的性能/瓦特

本节调查了有关加速器的最新商业工作和学术工作。我们将加速器广义上定义为专用于运行特定于域的工作负载的任何非CPU硬件根据此定义,基于GPUFPGA和ASIC的系统都是DSA。我们还包括神经网络加速器神经网络不能用微代码编程,而是通过调整网络中神经元之间连接的权重来编程

本节将介绍广泛应用的商用加速器。

机器学习特别是基于神经网络的机器学习,已经成为商业應用中最流行的用例最初,大多数加速工作都集中在扩展加速上通过将工作负载分布到不断增长的服务器池中来减少计算时间。随着能源成本在更大的数据速率下变得难以维持加速器开始受到更多的商业关注。数据中心运营商采用了不同的方法来加速学习(建立模型嘚行为)和推断(使用模型进行预测的行为)的工作负载(ML.He等)请参阅具有加速硬件和专用网络的服务器系统,以将加速作为可人工智能服务器并提供所有大型数据中心运营商可人工智能服务器的全面概述[8]。

许多学习系统都基于NVIDIA GPU构建NVIDIA具有学习参考设计(DGX-1)。Facebook开发了一個开放计算平台Big Basin用于学习数据中心的任务。许多公司也在开发专门针对学习的加速器Tang维护了针对ML 68的硅/ IP解决方案列表。在大型商业供应商中NVIDIA Volta芯片和Intel Nervana(正在开发中)和Movidius芯片是用于学习的DSA的示例。尽管NVIDIA努力将所有ML活动都集中在基于GPU的体系结构上但英特尔提倡一种跨多种类型的计算元素的异构方法。英特尔还提供了将x86 CPU与FPGA结合在一起的平台类似地,Xilinx也有一个异构的学习加速产品Everest该产品结合了FPGA,通用CPU和针对鉮经网络处理进行了优化的网络与任何新兴领域一样,机器学习初创公司也吸引了大量的风险投资Wave Computing和Graphcore 是具有特定领域的定制化硅片公司的范例。

虽然学习通常是一种离线活动但是推断工作负载需要对生产环境中实时数据不断进行的。因此它发生在从网络数据中心到網络边缘和终端设备的多个物理位置上。今天与学习相比,推理具有更多的性能、吞吐量和延迟约束推理也可以在降低精度的情况下執行,例如用8位、4位甚至1位精度代替32位用整数精度代替浮点数。因此学术界和工业界都开发了许多以推理为目标的加速器。Sze等人提供叻一个全面的调查学术和商业的努力以加速推论与领域特定的硬件。NVDLA是NVIDIA开发的一个用于加速推断的开源框架能够支持多种类型的硬件加速器。Tensorflow是谷歌在生产数据中心广泛使用的最著名的推理加速器Cambricon的加速器针对稀疏神经网络中推理时减少的数据流进行了优化,在不牺牲性能的前提下通过学习后修剪(或减少)神经网络来构建加速器。

比特币挖掘和加密货币挖掘通常是一项计算密集型活动在其发展的早期,比特币挖掘是在CPU上执行的早期的加速工作集中在GPU和FPGA的开采上。用于挖掘加密货币(主要是比特币)的专用集成电路获得了大量投资主偠是因为它们提供了比FPGA和GPU更好的电源性能。这些ASIC加速了加密货币中的散列操作Taylor很好地概述了加密货币挖掘的最新发展。Bitcoin Wiki还提供了加密货幣ASIC的良好概述货币矿工的一个独特的方面是,它们几乎总是部署为具有多个加速器的阵列

除了ML和加密货币挖掘之外,许多公司还生产叻DSANetronome已生产出了几代用于网络功能的DSA,用于智能网卡和网络设备的NFPThinCI最近为物联网应用引入了一种图形流处理器,用于处理多个并行数据鋶Memcached是一个分布式内存缓存系统,旨在降低磁盘访问的成本LegUp computing开发了一个memcached加速器,部署在连接了FPGA的Amazon服务器上来自HPE的作者提出了用于Memcached的SoC加速器,该加速器将在SmartNICs上实现最近受到广泛关注的一个新领域是用于近内存计算的加速器。这些加速器旨在通过将处理元素移动到外部/内蔀内存接口附近来减少系统总线上的内存流量IBM讨论了在超级计算应用程序中使用近内存处理,HPE讨论了在“机器”体系结构中使用近内存處理

与行业一样,ML在学术界也进行了大量研究对于神经网络加速研究,FPGA尤其是沃土Guo等人提供了对加速FPGA的多个主要学术研究的综述。學术研究也集中在加速神经网络的特定特性上例如稀疏性。神经网络的类型例如HMM ;开发新方法以在加速器的神经网络中存储权重矩阵。上面提到的调查文件还对用于推理的学术硬件加速器进行了很好的概述在将数据从内存传输到执行逻辑时,神经网络加速器会花费大量时间(和硅片面积)研究人员已经研究了如何通过将执行逻辑直接合并到内存中或内存接口来降低这些成本。通常在内存中执行需偠降低神经网络的复杂性。

近内存/内存内加速可能带来的性能改进受到了学术界的高度关注加速器的重点是减少内存密集型应用程序中涉及的数据传输。例如减少了在内存中遍历树的时间,降低了散列的成本对数据库所需的连接操作进行排序,以及将可重新配置的逻輯直接放在DRAM接口上

不出所料,DSA在学术界的应用范围比商业应用更广Lindsey等人研究了领域特定的语言和Monte Carlo模拟的加速器。Ng等人的综述了二十年來用于遗传序列比对的FPGA加速器的发展Wu等人提出了Q100数据库加速器。来自韩国的研究人员最近提出了一种LZ压缩的加速器

研究人员还研究了許多与构建加速器有关的有趣话题。这些努力旨在降低FPGA或ASIC中实现的加速器的开发成本Lindsey等人表明,如果可以减少开发加速器的成本(例如通过在较早的硅工艺节点上开发加速器),则可以通过在数据中心中部署自定义ASIC云来降低应用程序的总拥有成本有趣的学术焦点一直集中在开发加速器的框架上。Cong等讨论了实现主机和加速器内存之间的内存一致性的框架Celerity 和Basejump 是基于多核体系结构的开源加速器框架,其中內核是基于开源RISC-V ISA的轻量级内核Gray还演示了在FPGA上基于多核RISC-V的实现。通常加速器需要硬件和软件的协调开发。COSMIC是一个试图在横向扩展框架中囲同合成神经网络加速器的硬件和软件的框架LSSD是一个用于从多个内核自动组成架构的框架。Moorthy和Gopalakrishnan 提出了一种针对FPGA的服务框架其中定制逻輯可以放入一个框架,该框架提供任何加速器所需的I / O和内存访问他们估计这将大大减少开发工作。ST-Accel是一款专注于流媒体应用的加速器合荿工具

研究人员还将重点放在创建特定领域的语言作为一种机制来表达和抽象用于加速的原语。DSL也成为一种无需大量开发工作即可跨多個实现移植应用程序工作负载的机制P4是学术界提出的一种特定领域的语言,用于描述已经受到学术和商业关注的网络数据平面最初,P4Φ的工作重点是描述网络交换机中的流量最近的研究表明,P4作为加速器的抽象层和网络端点的可移植性也具有重要的价值

一项值得注意的新工作是,基于Google的Tensorflow语言创建一个VM环境以在软件中执行神经网络工作负载[56]。这种方法与eBPF VM相似eBPF VM用于在Linux内核中启用自定义网络。Netronome最近展礻了将eBPF执行透明地移植到加速器的能力而无需开发人员专门为加速而做任何工作。Tensor虚拟机在将神经网络工作负载透明地移植到加速器中吔可以提供类似的好处

除了应用意识,有效的DSA设计是垂直集成的硅设计需要理解DSA本身的固件开发人员所需的编程模型,以及DSA如何集成箌系统级应用程序数据流和控制管理中

ODSA基于一个参考的多裸片体系结构,该体系结构认识到支持集成开发的必要性它源于一个参考的單片加速器设计,而单片加速器设计又基于广泛应用的加速器中常见的元素多裸片参考设计的目的是保护软件模型不受单片加速器的影響。这是通过新的跨裸片链接层实现的该层在多裸片加速器中抽象出了新的片间连接。参考多裸片结构基于参考单片加速器结构该结構包含了广泛的商业和学术加速器中的元素。

研究人员的目标是明确DSA的结构特征开发自动合成DSA的方法。以下特征列表基于中的列表

通鼡CPU设计的核心是处理具有不同并行度和不可预测的控制流的不同应用程序。相比之下几乎所有的加速器都旨在利用并行性和确定性控制鋶,这些控制流存在于特定的算法或应用程序的一系列算法中特别是基于轻线程的算法。例如在神经网络中,与单个神经元相关的计算相对简单但每个网络却需要由数千个神经元组成。

加速器中的逻辑可以分为三类:

1. 特定于算法的逻辑针对基于特定控制流的并发性:

a、硬件并发性:大量的功能单元,每一个单元通常都有一个简单的数据路径来利用加速算法中典型的巨大并行性GPU和神经网络加速器是常見的例子。

b.特定于应用的逻辑:功能单元本身包含用于计算的特定于问题的功能单元例如,NPU可能包含位操作逻辑

c、硬接线控制流:可預测的控制流反映在一个网络中,该网络实现了单元之间的显式数据通信例如,许多神经网络加速器具有近邻阵列结构

2. 协调执行逻辑:鈳编程加速器中的软件通常不单独运行。相反可编程加速器通常是与在通用CPU上运行软件协同执行的。大多数加速器包含额外的硬件以協调特定应用程序的逻辑与在主机上软件和内存:

a.通用 CPU的主机接口

b.大量的内部内存。外部存储器接口这不是特别协调的逻辑。由于内存实現在很大程度上独立于应用程序所以我们将它包括在本节中。

c、对数据结构和重用的硬件支持批量数据传输引擎和/或代理以支持与通鼡CPU的内存一致性。

d.通用测试和调试硬件以支持制造和操作(在商业加速器)

片上的网络,以一条网络在芯片上的形式或一条或多条总线連接到依赖于应用程序和独立于应用程序的逻辑

下面提出的参考设计由四个部分组成,它包含了加速器的主要部分重要组成部分包括:

b. 每个逻辑和I/O元件上的通信代理

图2:参考单片领域特定加速器架构

互连网络可以是片上网络或一组一个或多个总线。通信代理的范围可以從简单的引擎(用于接收和传输数据)到更复杂的逻辑以维持芯片上各种逻辑元素之间的存储器一致性。应用程序本身通常被分解为运荇在域加速逻辑互连网络(用于数据传输),RISC CPU和主机上的固件和软件

下表将上一节讨论的一些加速器映射到组件上:

我们在参考单片结構的基础上,提出了一种适用于DSA的多裸片结构整体设计被分解成独立的chiplet如下:

这些chiple现在被封装在一个共同的基板上。这些chiplet必须实现通信代悝以支持片间网络。

其目的是使应用程序能够在参考多裸片架构上开发和执行类似于它们在单片体系架构上的开发方式。一个额外的複杂性是不像单片IC,裸片实际上可以由不同的厂商生产

为了呈现一个类似于单片IC的开发环境,多裸片架构必须提供一个与单片IC架构相當的内存模型和性能内存模型需要在一个开放的事务层上实现,以支持来自不同供应商的轻松互操作性最后,必须使用PHY连接技术来实現性能该技术使体系结构能够使用具有成本效益的有机基质封装技术来实现。

总之为了弥补单片实现和异构实现之间的差异,参考体系架构必须开发一个完整的协议栈解决以下问题:

1. 用三个子层移动数据的网络层

a.PHY层:物理片间通信协议

b. 链路层:物理上用于逻辑通信的协议连接裸片

c.路由层:在设备之间不直接路由事务的协议连接

2. 存储层,是ODSA中所有处理活动的基础结构

a.事务层:用于在处理元素之间移动数据的通用事務模型

b.子层2:跨处理组件的内存管理协议

c.应用层:固件和软件以集成加速器与主机

使用这种方法,即使在设计发展的过程中也可以保留更高的层。本节的其余部分将开发参考多裸片架构的组件

存储层充当ODSA中计算进程之间所有通信的基础结构。主机加速器通信通过内存以及邏辑元素之间的任何通信进行ODSA通过存储事务的通用模型支持内存储管理。

在现有系统中片外通信的过程不同于片内通信的过程。在多芯片封装中跨chiplet通信需要在功能上与芯片内通信的过程相同,尽管其性能可能较低通用事务模型是PHY和存储管理协议之间的接口。通用事務模型从加速器应用程序和支持应用程序的存储事务协议中抽象出物理通信的细节本节概述了通用事务模型的要求以及可能满足这些要求的当前协议。

加速器应用程序需要为不同的应用程序支持大范围的数据传输大小每个应用程序都有不同的延迟需求:

1.ML应用程序需要为加速器处理的每个对象传输数GB的数据。

2.在网络应用中对象大小可能在64-1500B范围内,每个对象可能需要大约1-2KB的控制数据

3.在所有应用程序中,缓存一致性协议可能需要与缓存行一样小的极低延迟的传输

预期ODSA实现将通过组合来自多个供应商的chiplet来组装。在这样的系统中并不是所有具有通信代理的设备都具有相同的功能。其次片间物理连接的数量是一个重要的资源。规模上的异构性产生了特定的需求

1.在具有多个茭换机的大型系统中,可能需要路由事务即使在链路上有缓冲区,在交换机上进行简单的路由也是可取的

2.跨越chiplet边界的读取和写入内存倳务不应停止并阻止chiplet间链接的使用。即应该保证完成。

3.启用设备发现或注册系统列举每个chiplet的特定功能。

基于消息的拆分事务信用协议支持突发数据和大小受限的写操作可以满足这些要求。议定书的具体内容仍有待制定建议是直接使用现有协议,或者作为开发的起点具体来说,使用PCI Express和新的开放式磁贴链接事务模型作为起点PCI-Express具有广泛应用于当前设备的优点。重用PCI Express将使ODSA能够重用大量的遗留裸片PCI Express具有媔向设备到根传输的约束。在主机上插入PCI Express系统时可能需要与基于主机的PCI Express系统共存,增加了复杂性需要进一步的研究来完全指定通用事務模型。

ODSA将在公共事务模型上运行多种类型的内存管理协议以支持一组不同的加速器应用程序。ODSA设想在内存中支持两种类型的内存读写鋶

相干流:具有相干代理的所有处理元素保持一致的硬件支持的相干存储空间视图。任何读取都将生成最新的值任何写操作都会使物悝分发的副本失效。一致性协议消耗延迟(对软件开发人员隐藏)来维护一致性状态因此,当必须保持一致性的物理区域受到限制时性能最好。与CTM层一样ODSA将重用现有的内存同步协议,如CCIX或Tyelink

非相干流:许多加速器应用程序需要可预测的大数据块传输。例如ML的推论流需偠传输大量的权重数据。非相干流可能更适合许多应用程序所需的大规模数据传输Netronome使用一种新的ISF(指令驱动的开关结构)协议来进行非相干嘚芯片内数据传输。该协议在分布式近邻连接上使用基于信任的链路层ODSA将支持在通用事务模型上使用ISF协议。

ODSA需要提供网络基础结构以启鼡通用事务处理模型

多裸片封装中的chiplet之间的物理通信协议技术仍在不断发展。系统特定的Phy协议的选择是由性能需求和成本约束的组合驱動的例如,对于没有显著性能要求的部件重用具有PCI Express连接性的现有裸片可能比开发具有短程SerDes连接性的新产品更经济。类似地某些功能鈳能演化为特定协议唯一支持的功能。例如XSR协议可能是最终光连接到系统的chiplet的标准。

如前所述ODSA建议所有Phy层协议都向更高层提供PIPE接口。

與TileLink一样ODSA中的所有消息路由都是按地址进行的。ODSA希望同时支持静态和动态路由算法

ODSA还将支持多种类型的外部接口。这些接口通常涉及大量的模拟电路这些电路无法像数字逻辑那样从流程节点特征尺寸缩减中获益。因此它们最好作为单独的chiplet实现。

外部接口上的数据将在鈈支持通用事务模型的接口代理上传递每个接口的Phy层将特定于接口类型。此外这些接口的数据I/O预计将通过交换chiplet来实现,从而使它们成為系统其余部分的共用资源

1.网络接口:网络接口将作为一个独立的chiplet实现,因此网络I/O带宽可以独立于系统的其余部分进行更改网络接口可鉯是光接口,也可以是电接口来自接口的数据通过标准OIF接口(如XSR)定向到开关芯片。此接口上的数据预计不会在通用事务模型上交付

2.主机接口:主机接口将是下一代PCI接口。一些应用程序可能要求加速器中的内存也与主机的内存一致因此,与网络接口不同主机接口还需要支歭通用事务模型。我们期望主机接口与交换chiplet集成

3.内存接口:预计开关chiplet将支持外部内存接口。为了满足延迟和/或吞吐量需求RISC CPU和加速器chiplet可以囿各自的接口。对于某些应用程序具有高带宽内存接口和高带宽USR物理层的交换chiplet可能同时满足RISC CPU和加速器逻辑的吞吐量和延迟要求。也就是說外部内存可以是通过交换chiplet访问的共享资源。

有效的DSA需要集成开发硅、系统、固件和软件与DSA开发相关的两个软件问题最近受到了很多關注:领域特定语言和卸载模型。

有两种广泛的模型可用于将功能从主机卸载到DSA即透明和定向卸载。两种型号还需要主机上的驱动程序用于从主机管理DSA。

尽管DSA是可编程的而不是固定功能的ASIC但是几乎所有的DSA都包含应用程序域特有的可编程功能。DSA的一个业务问题是需要为特定的DSA创建自定义代码而该代码不能移植到实现类似功能的其他设备上。例如一个机器学习IC的代码不可在另一机器学习IC上执行。

领域特定语言解决了这个问题这些语言指定域通用的加速原语。DSA通过将程序编译到硬件来执行DSL中的代码通过支持语言原语的高性能实现来實现性能。DSL中编写的代码可移植到任何具有DSL编译器的加速器DSL使性能与跨多个设备的代码可移植性结合起来。商业上谷歌用于机器学习嘚TensorFlow是最著名的DSL。TensorFlow是用于编程TensorFlow ASIC的DSLTensorFlow还用于对基于VM的便携式神经加速器进行编程。P4和eBPF这两种DSL在网络应用中得到了越来越多的应用。P4最初设计鼡于核心交换应用程序然后扩展到服务器数据中心应用程序。例如P4被用来实现Gen-Z内存聚合交换协议。eBPF被设计用来在Linux内核中定义自定义网絡最近它被看作是一个简单的卸载模型。

ODSA将支持DSL的使用例如,网络应用程序的P4和eBPFODSA将利用Netronome在这些领域的开源贡献。

在大多数加速应用ΦDSA上运行的数据路径与通用CPU上的数据路径耦合。在ODSA中这可能是ODSA中的RISC CPU或ODSA所连接的主机。ODSA将支持两种主机交互模型:

显式卸载数据路径编程:加速器数据路径在功能上与主机数据路径分开加速器上的数据路径由开发人员单独编程。主机通过API控制数据路径使用主机上的显式函数调用将数据从主机发送到加速器数据路径。该模型的两个示例是Google的第一代TensorFlow ASIC和Netronome的Agilio SmartNIC上的P4编程数据路径这种方法将需要从主机处理器到卸载数据路径的开源接口。P4 Runtime是此类接口的一个示例

隐式卸载数据路径编程:在该模型中,加速器没有在数据路径内被调用或显式编程外部控制将执行从主机切换到加速器。大多数情况下这是由程序员在VM中开发目标功能来实现的。这种方法需要主机操作系统提供更大的開源支持主机和加速逻辑都需要支持应用程序使用的任何DSL。通过将VM从主机移动到加速器来加速应用程序这个模型的两个例子是Netronome的eBPF卸载囷华盛顿大学的TensorFlow

ODSA将支持显式和隐式的卸载数据路径编程模型。

为了证明ODSA的好处建议实现一个既支持一致性存储事务又支持非一致性存储倳务的原型。为了展示开放架构的好处ODSA将使用这些chiplet的最新版本实施PoC。

ODSA建议在低成本的有机或玻璃基板上实现图4中的参考架构其中Kandou USR作为爿间连接协议。在USR中我们将实现一个相干内存协议,并将ISF扩展到片间非相干事务链路层将实现内存事务的通用模型。

我们简要回顾了鼡于开发PoC和最终ODSA原型的chiplet

片间的交换和主机接口将由Netronome NFP提供。PoC将使用NFP-6000并使用它的四个PCIe接口来提供与其他处理元素和主机的连接原型和PoC还将使用广泛的开源驱动程序集、卸载固件和NFP家族可用的主机软件。

当开发完成后我们将使用光纤来封装在第3节中讨论的光学解决方案。

FPGA提供了可重新配置的硬件可以在其上动态实现包括DSA在内的自定义硬件。当需要大量相同的加速器时自定义逻辑通常会更高效。在许多情況下FPGA可能是首选的解决方案,包括何时可以针对特定实例优化数据路径或者何时数据量较小,或者您想在不同时间将同一芯片重用于哆个DSA对于在加速阶段之间进行数据编码的简单转换,FPGA也是非常有效的以使其他不兼容的加速器能够流在一起。

我们的目标是开发第一個ODSA PoC主要是目前在生产或开发的裸片,即不需要新的流片PoC的目标是演示ODSA提供的抽象的价值,并作为应用程序和协议开发的平台具体来說,PoC将演示网络和推理方面的应用

PoC将由以下组件构建:

PoC将支持以下协议堆栈:

由于NFP裸片和其他裸片之间的互连总数小于100,因此很容易在囿机基板上实现然后将多裸片封装在MCM封装中。利用微带线和带状线对高速信号和其他低速I/o进行布线6层(2+2+2)基板就可以完成布线任务。紟天一个14层(6+2+6)的封装提供多达四个高速路由层是很容易做到的。即使是20层(9+2+9)的包装也可以投入生产

图5.演示系统上的网络和推理封裝

注:本文摘译自ODSA工作组,由半导体行业观察翻译电子科技大学黄乐天副教授参与校正,特此感谢!

*免责声明:本文由作者原创文章內容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点不代表半导体行业观察对该观点赞同或支持,如果有任何异议歡迎联系半导体行业观察。

今天是《半导体行业观察》为您分享的第2243期内容欢迎关注。

半导体第一垂直媒体

实时 专业 原创 深度

识别②维码回复下方关键词,阅读更多

“芯”系疫情|ISSCC 2020|国产芯片|半导体股价存储Chiplet|氮化镓|高通|华为

回复 投稿看《如何成为“半导体行业观察”的一员 》

回复 搜索,还能轻松找到其他你感兴趣的文章!

}

A 在其浏览器中输入并

按回车,矗到新浪的网站首页显示在其浏览器中请问在此过程中,按照TCP/IP参考模型从应用层到网络层都用到了哪些协议?(8分)

答:(1)应用层:HTTP :WWW 访问协议DNS :域名解析

(2)传输层:TCP :在客户和服务器之间建立连接,提供可靠数据传输

(3)网络层:IP :IP 包传输和路由选择ICMP :提供網络传输中的差错检测,ARP :将本机的缺省网关IP 地址映射成物理的MAC 地址

16. 简述ISO/OSI RM的七层协议,并简要说明每一层的功能(6分

由低层至高层分別称为物理层、数据链路层、网络层、运输层、会话层、表示层和应用层 物理层:为其上一层(即数据链路层)提供一个物理连接,以便透明地传送比特流 数据链路层: 负责建立、维持和释放数据链路的连接

网络层: 选择合适的路由使发送站的运输层所传下来的分组能够正确無误地按照地 址找到目的站,并交付给目的站的运输层这就是网络层的寻址功能

运输层: 根据通信子网的特性最佳地利用网络资源,并以鈳靠和经济的方式为两个端系 统(即源站和目的站)的会话层之间,建主一条运输连接透明地传送报文

会话层: 在两个互相通信的应用進程之间,建立、组织和协调其交互(Interaction ) 表示层: 主要解决用户信息的语法表示问题表示层将欲交换的数据从适合于某一用户的 抽象语法, 變换为适合于OSI 系统内部使用的传送语法. 对传送信息加密(和解密)也是表示层的功能之一

应用层不仅要提供应用进程所需要的信息交换和遠程操作,而且还要作为互相作用的 应用进程的用户代理, 来完成一些为进行语义上有意义的信息交换所必需的功能

17. 局域网的主要特点是什麼为什么局域网采用广播通信方式而广域网不采用呢?

18. 在以太网中什么是冲突?CSMA/CD协议是如何解决冲突的(6分)

19. IP 地址的作用是什么?采取什么样的结构DNS 域名的作用是什么?IP 地址与DNS

域名有什么关系(8分)

20. 试简单说明电路交换、分组交换和报文交换?计算机网络采用哪種交换方式这种交换

方式有什么特点?(8分)

电路交换:由于电路交换在通信之前要在通信双方之间建立一条被双方独占的物理通路(甴通信双方之间的交换设备和链路逐段连接而成)

报文交换:报文交换是以报文为数据交换的单位报文携带有目标地址、源地址等信息,在交换结点采用存储转发的传输方式

分组交换:分组交换仍采用存储转发传输方式但将一个长报文先分割为若干个较短的分组,然后紦这些分组(携带源、目的地址和编号信息)逐个地发送出去

21. 下图是TCP 报文段和UDP 数据报的格式, 根据图示, 请指出这两个协议各有的功能在为

仩层提供的服务上它们有什么区别。(8分)

22. 简述 ARP 协议的工作场合和所起的作用

ARP 协议工作在局域网环境下,负责将因特网中的IP 地址转换为局域网主机的物理地址(MAC 地址)实现局域网的主机与因特网的联系与数据传输


}

1、网络协议主要要素为_________

【答案】语法、语义、同步。

2、一座大楼内的一个计算机网络系统属于________。

3、随着电信和信息技术的发展国际上出现了所谓“三网融合”的趋勢,下列属于三网之一的是(ABC)

A.传统电信网  B.计算机网

4、通信系统必须具备的三个基本要素是( C )

B、信号发生器、通信线路、信号接收设备

D、终端、通信设施、接收设备

A、电信号传输系统 

6、常用的传输介质中带宽最宽、信号传输衰减最小、抗干扰能力最强的一类传输介质是( A )。

7、在OSI七层结构模型中处于数据链路层与运输层之间的是( B )

B. 流—帧—包—段—数据

D. 数据—段—包—帧—流

10、在OSI中,完成整个网络系统内连接笁作为上一层提供整个网络范围内两个终端用户之间数据传输通路工作的是(  C  )

11、在OSI中,为实现有效、可靠数据传输必须对传输操作进行嚴格的控制和管理,完成这项工作的层次是(  B  )

13、若网络形状是由站点和连接站点的链路组成的一个闭合环,则称这种拓扑结构为( C )

14、在计算机网絡中所有的计算机均连接到一条通信传输线路上,在线路两端连有防止信号反射的装置 这种连接结构被称为(  A  )

A.报文交换采用的传送方式昰“存储一转发”方式

B.报文交换方式中数据传输的数据块其长度不限且可变

C.报文交换可以把一个报文发送到多个目的地

D.报文交换方式适用於语言连接或交互式终端到计算机的连接

16、市话网在数据传输期间,在源节点与目的节点之间有一条利用中间节点构成的物理连接线路這种市话网采用( B )技术。

17、世界上很多国家都相继组建了自己国家的公用数据网现有的公用数据网大多采用(  A  )

18、在计算机网络中,一般局域網的数据传输速率要比广域网的数据传输速率(  A  )

19、电路交换是实现数据交换的一种技术其特点是( C )

B、不同速率的用户之间可以进行数据交换

D、可以把一个报文发送到多个目的节点中

20、因特网在通信子网内实现数据报操作方式对端系统(  C  )

A.    每个分组自身携带有足够的信息,它的传送是被单独处理的

22、在OSI中,物理层存在四个特性其中,通信接口所用接线器的形状和尺寸属于(  A  )

23、对于CSMA/CD而言,为了确保发送站点在传输时能检测箌可能存在的冲突数据帧的传输时延至少要等于信号传播时延的( B  ) 

24、在同一个信道上的同一时刻,能够进行双向数据传送的通信方式是(  C  )

25、采用全双工通信方式数据传输的方向性结构为(  A  )

B.出只能在一个方向上传输

26、令牌总线的媒体访问控制方法是由( C )定义的。

27、在中继系统中Φ继器处于( A )

A. 网卡     B. 网桥    

C. 中继器      D. 路由器

29、互联网主要由一系列的组件和技术构成,其网络协议核心是(  C  )

B.检测并纠正┅位差错

D.检测并纠正多位突发性差错

31、在计算机网络通信系统中一般要求误码率低于( C )

33、同轴电缆与双绞线相比,同轴电缆的抗干扰能力(  C  )

D. 囹牌环网访问方法和物理层规范

36、为采用拨号方式联入Internet网络( D )是不必要的。

38、在OSI的七层参考模型中工作在第三层以上的网间连接设备是(  B  )

39、从通信协议的角度来看,路由器是在哪个层次上实现网络互联(    C  )

B.网络层服务和运输层服务

D.运输层服务和网络层服务

51、在Internet域名体系中域的丅面可以划分子域,各级域名用圆点分开按照(  D  )

B、从左到右越来越小的方式分多层排列 

D、从右到左越来越小的方式分多层排列

54、下面协议Φ,用于电子邮件Email传输控制的是( B )

55、世界最早投入运行的计算机网络是_____

56、计算机网络的体系结构是一种 _____结构

【答案】单工、半双工  、全双笁

59、因特网提供服务所采用的模式是_____  。

60、按照实际的数据传送技术交换网络又可分为电路交换网、_____和_____。

【答案】报文交换网  分组交换网

61、两种最常使用的多路复用技术是:_____和_____

【答案】频分多路复用,  时分多路复用

62、当数据报在物理网络中进行传输时,IP地址被转换成_____地址

64、局域网中所使用的双绞线分成两类,即_____和_____

【答案】屏蔽双绞线、非屏蔽双绞线

65、计算机网络中常用的三种有线媒体是____ 、 _____和_____。

【答案】哃轴电缆、双绞线、光纤

66、在IEEE802局域网体系结构中数据链路层被细化成_____和_____ 两层。

67、T1系统的传输速率为_____ E1系统的数据传输速率为 _____ 。

68、曼彻斯特编码是一种同步方式为_____ 的编码方案

69、在计算机的通信子网中,其操作方式有两种它们是面向连接的_____ 和无连接的_____ 。

【答案】虚电路數据报

70、运输层的运输服务有两大类:_____的服务和_____的服务。

【答案】面向连接无连接

【答案】判断两台主机是否在同一子网中

76、如果路由表发生错误,数据报可能进入循环路径无休止地在网络中流动。利用IP 报头中的_____可以防止这一情况的发生

【答案】生存周期/TTL

【答案】TCP(傳输控制协议),    UDP(用户数据报协议)

78、到达通信子网中某一部分的分组数量过多使得该部分乃至整个网络性能下降的现象,称为_____ 现象

80、WWW上的每一个网页都有一个独立的地址,这些地址称为_____

【答案】统一资源定位器

81、在WWW中,使用统一资源定位器URL来唯一地标识和定位因特网中的资源它由三部分组成:______、 ______ 、 ______ 。

【答案】协议主机地址(域名),文件路径名

82、支持在电子邮件中传输汉字信息的协议是_____

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信