免费智能真题库 > 历年试卷 > 网络规划设计师 > 2017年下半年 网络规划设计师 上午试卷 综合知识
  第37题      
  知识点:   CSMA/CD访问控制方式   传输指标   CSMA/CD协议   信号   总线
  关键词:   比特   基带   数据   网络   协议   信号   总线        章/节:   数据通信基础知识   局域网       

 
采用CSMA/CD协议的基带总线,段长为2000m,数据速率为10Mb/s,信号传播速度为200m/μs,则该网络上的最小帧长应为( )比特。
 
 
  A.  100
 
  B.  200
 
  C.  300
 
  D.  400
 
 
 

 
  第15题    2013年下半年  
   55%
10个9.6kb/s的信道按时分多路复用在一条线路上传输,在统计TDM情况下,假定每个子信道只有30%的时间忙,复用线路的控制开销为10%..
  第14题    2020年下半年  
   77%
以100Mb/s以太网连接的站点A和B相距2000m,通过停等机制进行数据传输,传播速度为200m/μs,最高的有效传输速率为( )Mb/s。
  第4题    2010年下半年  
   49%
传输介质越长,传播延迟越大,由此导致的延迟失真越大。受延迟失真影响最大的是(4)。
 
  第5题    2009年下半年  
   59%
在一个釆用CSMA/CD协议的网络中,传输介质是一根电缆,传输速率为1Gbps,电缆中的信号传播速度是200000km/s。若最小数据帧长度减少..
  第32题    2011年下半年  
   29%
在以太网半双工共享式连接中,我们无需流量控制;而在全双工交换式连接中要考虑流量控制,其原因是(32)。
  第6题    2010年下半年  
   63%
当千兆以太网使用UTP作为传输介质时,限制单根电缆的长度不超过(5)米,其原因是(6)。
   知识点讲解    
   · CSMA/CD访问控制方式    · 传输指标    · CSMA/CD协议    · 信号    · 总线
 
       CSMA/CD访问控制方式
        在CSMA中,如果在总线上的两个站点都没有监听到载波信号而几乎同时都发送数据帧,但由于信道传播时延的存在,这时仍有可能会发生冲突,如下图所示。在传播延迟期间,如站点2有数据帧需要发送,就会和站点1发送的数据帧相冲突。由于CSMA算法没有冲突检测的功能,即使冲突已发生,仍然将已破坏的帧发送完,使总线的利用率降低。
        
        CSMA发生冲突的情景
        一种CSMA的改进方案是使发送站点传输过程中仍然继续监听媒体介质,以检测是否存在冲突。如果发生冲突,信道上可以检测到超过发送站点本身发送的载波信号的幅度,由此判断出冲突的存在。于是只要一旦检测到冲突存在,就立刻停止发送,并向总线上发一串阻塞信号,用以通知总线上其他各有关站点。这样通道信道就不至于因白白传送已受损的数据帧而浪费,总体上可以提高总线的利用率。这种方案也就是CSMA/CD,这种协议已广泛应用于局域网中。
               冲突检测时间的计算
               CSMA/CD的代价是用于检测冲突所花费的时间。对于基带总线而言,最坏情况下用于检测一个冲突的时间等于任意两个站点之间传播时延的两倍。从一个站点开始发送数据到另一个站点开始接收数据,也即载波信号从一端传播到另一端所需的时间,称为信号传播时延。
               信号传播时延(μs)=两站点的距离(m)/信号传播速度(200m/μs)
               在上述公式中,信号传播速度一般为光速的2/3左右,即约每秒20万公里。相当于200m/μs。所以,公式中最后计算出的信号传播时延是以μs为单位的。
               数据帧从一个站点开始发送,到该数据帧发送完毕所需的时间称为数据传输时延。同理,数据传输时延也表示一个接收站点开始接收数据帧,到该数据帧接收完毕所需的时间。
               数据传输时延(s)=数据帧长度(b)/数据传输速率(b/s)
               同样需要注意的是,在上述公式中,数据传输速率与上面刚刚讲到的信号传播速度并不是同一个概念,数据传输速率是网络的一个性能指标,如十兆以太网的数据传输速率为10Mb/s,即10×106b/s。但是在数据传输时延与信号传播时延两者之间还是存在一些关联的,下面会进一步分析。
               如下图所示,假定A、B两个站点位于总线两端,两站点之间的最大传播时延为tp。当A站点发送数据后,经过接近于最大传播时延tp时,B站点此时正好也发送数据,这样冲突便发生了。发生冲突后,B站点立即可检测到该冲突,而A站点需再经过一段最大传播时延tp后,才能检测出冲突。也即最坏情况下,对于基带CSMA/CD来说,检测出一个冲突的时间等于任意两个站之间最大传播时延的两倍(2tp)。
               
               时间计算
               由上述分析可知,为了确保发送数据站点能够在数据传输的过程中可以检测到可能存在的冲突,数据帧的传输时延至少要两倍于信号传播时延,公式如下。
               数据传输时延(μs)≥信号传播时延(μs)×2
               换句话说,必须要求分组的长度不短于某个值,否则在检测出冲突之前数据传输已经结束,但实际上分组已被冲突所破坏。这就是为什么以太网协议中的数据帧必须要求一个最短长度的真正原因。把公式1和公式2代入到公式3中后,并作一些简单变换,由此进一步推导出了CSMA/CD总线网络中最短数据帧长度的计算关系式,如下:
               最短数据帧长(b)=任意两站点间的最大距离(m)/信号传播速度(200m/μs)×数据传输速率(Mb/s)×2
               由于单向传输的原因,对于宽带总线而言,冲突检测时间等于任意两个站之间最大传播时延的4倍。所以对于宽带CSMA/CD来说,要求数据帧的传输时延至少4倍于传播时延。
               二进制指数退避和算法
               在CSMA/CD算法中,一旦检测到冲突并发完阻塞信号后,为了降低再次冲突的概率,需要等待一个随机时间,然后使用CSMA方法试图再次传输。为了保证这种退避操作维持稳定采用了一种称为二进制指数退避的算法,其规则如下:
               (1)对每个数据帧,当第一次发生冲突时,设置一个参量L=2。
               (2)退避间隔取1~L个时间片中的一个随机数,1个时间片等于两站之间的最大传播时延的两倍。
               (3)当数据帧再次发生冲突,将参量L加倍。
               (4)设置一个最大重传次数,超过该次数,则不再重传,并报告出错。
               注意:在以太网中规定,最多重传16次,否则向上层程序报错。参量L的最大值不超过1024。
               二进制指数退避算法是按后进先出(Last In and First Out,LIFO)的次序控制的,即未发生冲突或很少发生冲突的数据帧,具有优先发送的概率;而发生过多次冲突的数据帧,发送成功的概率就更小。
               以太网就是采用二进制指数退避和1-坚持算法的CSMA/CD媒体访问控制方法。这种方法在低负荷时(如媒体空闲),要发送数据帧的站点能立即发送;在重负荷时,仍能保证系统的稳定性。它是基带系统,使用曼彻斯特(Manchester)编码,通过检测通道上的信号存在与否来实现载波监听。发送站的收发器检测冲突,如果冲突发生,收发器的电缆上的信号超过收发器本身发的信号幅度。由于在媒体上传播的信号会衰减,为确保能正确地检测出冲突信号,CSMA/CD总线网限制一段无分支电缆的最大长度为500m。
 
       传输指标
        在数据通信中,传输指标主要有传输速率、误码率、误位率、信道带宽、信道容量、时延、传播时延带宽积和往返时延等。
               传输速率
               传输速率是指数据在信道中传输的速度。可以用码元传输速率和信息传输速率两种方式来描述。
               码元是在数字通信中常常用时间间隔相同的符号来表示一位二进制数字。这样的时间间隔内的信号称为二进制码元,而这个间隔被称为码元长度。码元传输速率又称为码元速率或传码率。码元速率又称为波特率,每秒中传送的码元数。若数字传输系统所传输的数字序列恰为二进制序列,则等于每秒钟传送码元的数目,而在多电平中则不等同。单位为“波特/秒”,常用符号Baud/s表示。
               信息传输速率即位率,位/秒(b/s),表示每秒中传送的信息量。
               设定码元传输速率为RB,信息速率Rb,则两者的关系如下:
               Rb=RB×log2M
               其中,M为采用的进制。例如,对于采用十六进制进行传输信号,则其信息速率就是码元速率的4倍;如果数字信号采用四级电平即四进制,则一个四进制码元对应两个二进制码元(4=22)。
               误码率和误位率
               在多进制系统中,误码率是指码元在传输过程中,错误码元占总传输码元的概率。设定误码率用Pe表示:
               
               在二进制系统中,误位率是指在信息传输过程中,错误的位数占总传输的位数的概率。设定误位率用Pb表示:
               
               信道带宽与信道容量
               信道带宽是指信道中传输的信号在不失真的情况下所占用的频率范围,即信道频带,用赫兹Hz表示,信道带宽是由信道的物理特性所决定的。
               信道容量是指单位时间内信道上所能传输的最大位数,用位/秒表示。
               数据传输速率是指每秒钟所传输的二进制位数,用位/秒表示。设定T为发送一位所需要的时间,则二进制数据传输速率S=1/T
               时延
               时延(Delay)是指一个报文或分组从一个网络(或一条链路)的一端传送到另一端所需的时间。时延是由以下几个不同的部分组成的。
               (1)传播时延。传播时延是从一个站点开始发送数据到目的站点开始接收数据所需要的时间。传播时延的计算公式是
               
               信号在物理媒体中传输时间是变化的。例如,电磁波在光纤、微波信道中的传播速度为每秒300 000km,而在一般电缆中的速度约为光速的2/3。
               (2)发送时延。发送时延是发送数据所需要的时间,即从一个站点开始接收数据到数据接收结束所需要的时间。发送时延的计算公式是
               
               (3)处理时延/排队时延。处理时延是数据在交换节点为存储转发而进行一些必要的处理所花费的时间。处理时延的重要组成部分是排队时延。排队时延是数据在交换结点等候发送在缓存的队列中排队所经历的时延。
               (4)总时延。数据经历的总时延就是以上三种时延之和,即
               总时延=传播时延+发送时延+排队时延
               传播时延带宽积
               网络性能的两个度量传播时延和带宽相乘,就得到另一个很有用的度量:传播时延带宽积。它的计算公式如下:
               传播时延带宽积=传播时延×带宽
               链路的时延带宽积又称为以位为单位的链路长度。
               往返时延
               在计算机网络中,往返时延也是一个重要的性能指标,表示从发送端发送数据开始,到发送端收到来自接收端的确认,总共经历的时延。
 
       CSMA/CD协议
        CSMA/CD是一种适用于总线结构的分布式介质访问控制方法,是IEEE 802.3的核心协议。CSMA的基本原理是,当一个站在发送数据之前,先监听信道上是否有其他站发送的载波信号,若有,则说明信道正忙;否则信道是空闲的。然后根据预定的策略决定:
        .若信道空闲,是否立即发送。
        .若信道忙,是否继续监听。
               监听算法
               监听算法并不能完全避免发送冲突,但若对以上两种控制策略进行精心设计,则可以把冲突概率减到最小。据此,有以下3种监听算法。
               1)非坚持型监听算法
               当一个站准备好帧,发送之前先监听信道:
               ①若信道空闲,立即发送;否则转②。
               ②若信道忙,等待一个由概率分布决定的随机重发延迟后,重复①。
               由于等待了一个由概率分布决定的随机重发延迟,从而减少了冲突的概率;然而,可能出现的问题是因为延迟而使信道闲置一段时间,这使信道的利用率降低,而且增加了发送时延。
               2)1-坚持型监听算法
               当一个站准备好帧,发送之前先监听信道:
               ①若信道空闲,立即发送;否则转②。
               ②若信道忙,继续监听,直到信道空闲后立即发送。
               这种算法的优缺点与前一种正好相反:有利于抢占信道,减少信道空闲时间;但是多个站同时都在监听信道时必然发生冲突。
               3)P-坚持型监听算法
               P-坚持型监听算法吸取了以上两种算法的优点,但较为复杂。
               ①若信道空闲,以概率P发送,以概率(1-P)延迟一个时间单位。一个时间单位等于网络传输时延期τ。
               ②若信道忙,继续监听,直到信道空闲,转①。
               ③若发送延迟一个时间单位τ,则重复①。
               冲突检测(CD)原理
               载波监听只能减小冲突的概率,而不能完全避免冲突。当两个帧发生冲突后,若继续发送,将会浪费网络带宽。如果帧比较长,对带宽的浪费就很可观。为了进一步改进带宽的利用率,发送站应采取边发边听的冲突检测方法。具体如下。
               ①发送期间同时接收,并把接收的数据与站中存储的数据进行比较。
               ②若比较结果一致,说明没有冲突,重复①。
               ③若比较结果不一致,说明发生冲突,立即停止发送,并发送一个简短的干扰信号(Jamming),使所有站都停止发送。
               ④发送Jamming信号后,等待一段随机长的时间,重新监听,再试着发送。
               二进制指数后退算法
               按照二进制指数后退算法,后退时延的取值范围与重发次数n形成二进制指数关系。随着重发次数n的增加,后退时延tζ的取值范围按2的指数增大。即第一次试发时n的值 为0,每冲突一次,n的值加1,并按式(4-5)计算后退时延,即
               
               为了避免无限制的重发,要对重发次数n进行限制。通常当n增加到某一个最大值时停止发送,并向上层协议报告发送错误,等待处理。
               CSMA/CD的实现
               对于基带总线和宽带总线,CSMA/CD的实现基本上是相同的,但也有一些差别。
               差别一是载波监听的实现。对于基带系统,是检测电压脉冲序列。对于宽带系统,监听站接收RF载波以判断信道是否空闲。
               差别二是冲突检测的实现。对于基带系统,是把直流电压加到信号上来检测冲突。对于宽带系统,有几种检测冲突的方法。方法之一是把接收的数据与发送的数据逐位比较;另一种方法用于分裂配置,由端头检查是否有破坏了的数据,这种数据的频率与正常数据的频率不同。
 
       信号
        任务间同步的另一种方式是异步信号。在两个任务之间,可以通过相互发送信号的方式,来协调它们之间的运行步调。
        所谓的信号,指的是系统给任务的一个指示,表明某个异步事件已经发生了。该事件可能来自于外部(如其他的任务、硬件或定时器),也可能来自于内部(如执行指令出错)。异步信号管理允许任务定义一个异步信号服务例程ASR(Asynchronous Signal Routine),与中断服务程序不同的是,ASR是与特定的任务相对应的。当一个任务正在运行的时候,如果它收到了一个信号,将暂停执行当前的指令,转而切换到相应的信号服务例程去运行。不过这种切换不是任务之间的切换,因为信号服务例程通常还是在当前任务的上下文环境中运行的。
        信号机制与中断处理机制非常相似,但又各有不同。它们的相同点是:
        .都具有中断性:在处理中断和异步信号时,都要暂时地中断当前任务的运行;
        .都有相应的服务程序;
        .都可以屏蔽响应:外部硬件中断可以通过相应的寄存器操作来屏蔽,任务也能够选择不对异步信号进行响应。
        信号机制与中断机制的不同点是:
        .中断是由硬件或特定的指令产生,而信号是由系统调用产生;
        .中断触发后,硬件会根据中断向量找到相应的处理程序去执行;而信号则通过发送信号的系统调用来触发,但系统不一定马上对它进行处理;
        .中断处理程序是在系统内核的上下文中运行,是全局的;而信号处理程序是在相关任务的上下文中运行,是任务的一个组成部分。
        实时系统中不同的任务经常需要互斥地访问共享资源。当任务试图访问资源时被正使用该资源的其他任务阻塞,可能出现优先级反转的现象,即当高优先级任务企图访问已被某低优先级任务占有的共享资源时,高优先级任务必须等待直到低优先级任务释放它占有的资源。如果该低优先级任务又被一个或多个中等优先级任务阻塞,问题就更加严重。由于低优先级任务得不到执行就不能访问资源、释放资源。于是低优先级任务就以一个不确定的时间阻塞高优先级的任务,导致系统的实时性没有保障。下图为是一个优先级反转的示例。
        
        一个优先级反转的示例
        如上图所示,系统存在任务1、任务2、任务3(优先级从高到低排列)和资源R。某时,任务1和任务2都被阻塞,任务3运行且占用资源R。一段时间后,任务1和任务2相继就绪,任务1抢占任务3运行,由于申请资源R失败任务1被挂起。由于任务2的优先级高于任务3,任务2运行。由于任务3不能运行和释放资源R,因此任务1一直被阻塞。极端情况下,任务1永远无法运行,处于饿死状态。
        解决优先级反转问题的常用算法有优先级继承和优先级天花板。
               优先级继承协议
               L. Sha、R. Rajkumar和J. P. Lehoczky针对资源访问控制提出了优先级继承协议(Priority Inheritance Protocol,PIP)。
               PIP协议能与任何优先级驱动的抢占式调度算法配合使用,而且不需要有关任务访问资源情况的先验知识。优先级继承协议的执行方式是:当低优先级任务正在使用资源,高优先级任务抢占执行后也要访问该资源时,低优先级任务将提升自身的优先级到高优先级任务的级别,保证低优先级任务继续使用当前资源,以尽快完成访问,尽快释放占用的资源。这样就使高优先级任务得以执行,从而减少高优先级任务被多个低优先级任务阻塞的时间。低优先级任务在运行中,继承了高优先级任务的优先级,所以该协议被称作优先级继承协议。
               由于只有高优先级任务访问正被低优先级任务使用的资源时,优先级继承才会发生,在此之前,高优先级任务能够抢占低优先级任务并执行,所以优先级继承协议不能防止死锁,而且阻塞是可以传递的,会形成链式阻塞。另外,优先级继承协议不能将任务所经历的阻塞时间减少到尽可能小的某个范围内。最坏情况下,一个需要μ个资源,并且与v个低优先级任务冲突的任务可能被阻塞min(μ,v)次。
               优先级冲顶协议
               J. B. Goodenough和L. Sha针对资源访问控制提出了优先级冲顶协议(Priority Ceiling Protocol,PCP)。
               PCP协议扩展了PIP协议,能防止死锁和减少高优先级任务经历的阻塞时间。该协议假设所有任务分配的优先级都是固定的,每个任务需要的资源在执行前就已确定。每个资源都具有优先级冲顶值,等于所有访问该资源的任务中具有的最高优先级。任一时刻,当前系统冲顶值(current priority ceiling)等于所有正被使用资源具有的最高冲顶值。如果当前没有资源被访问,则当前系统冲顶值等于一个不存在的最小优先级。当任务试图访问一个资源时,只有其优先级高于当前系统冲顶值,或其未释放资源的冲顶值等于当前系统冲顶值才能获得资源,否则会被阻塞。而造成阻塞的低优先级任务将继承该高优先级任务的优先级。
               已经证明,PCP协议的执行规则能防止死锁,但其代价是高优先级任务可能会经历优先级冲顶阻塞(Priority ceiling blocking)。即高优先级任务可能被一个正使用某资源的低优先级任务阻塞,而该资源并不是高优先级任务请求的。这种阻塞又被称作回避阻塞(avoidance blocking),意思是因为回避死锁而引起的阻塞。即使如此,在PCP协议下,每个高优先级任务至多被低优先级任务阻塞一次。使用PCP协议后,能静态分析和确定任务之间的资源竞争,计算出任务可能经历的最大阻塞时间,从而能分析任务集合的可调度性。在PCP协议下,高优先级任务被阻塞时会放弃处理器,因此,访问共享资源的任务可能会产生4次现场切换。
 
       总线
        所谓总线(Bus),是指计算机设备和设备之间传输信息的公共数据通道。总线是连接计算机硬件系统内多种设备的通信线路,它的一个重要特征是由总线上的所有设备共享,因此可以将计算机系统内的多种设备连接到总线上。
               总线的分类
               微机中的总线分为数据总线、地址总线和控制总线3类。不同型号的CPU芯片,其数据总线、地址总线和控制总线的条数可能不同。
               数据总线(Data Bus,DB)用来传送数据信息,是双向的。CPU既可通过DB从内存或输入设备读入数据,也可通过DB将内部数据送至内存或输出设备。DB的宽度决定了CPU和计算机其他设备之间每次交换数据的位数。
               地址总线(Address Bus,AB)用于传送CPU发出的地址信息,是单向的。传送地址信息的目的是指明与CPU交换信息的内存单元或I/O设备。存储器是按地址访问的,所以每个存储单元都有一个固定地址,要访问1MB存储器中的任一单元,需要给出220个地址,即需要20位地址(220=1M)。因此,地址总线的宽度决定了CPU的最大寻址能力。
               控制总线(Control Bus,CB)用来传送控制信号、时序信号和状态信息等。其中有的信号是CPU向内存或外部设备发出的信息,有的是内存或外部设备向CPU发出的信息。显然,CB中的每一条线的信息传送方向是单方向且确定的,但CB作为一个整体则是双向的。所以,在各种结构框图中,凡涉及控制总线CB,均是以双向线表示。
               总线的性能直接影响整机系统的性能,而且任何系统的研制和外围模块的开发都必须依从所采用的总线规范。总线技术随着微机结构的改进而不断发展与完善。
               在计算机的概念模型中,CPU通过系统总线和存储器之间直接进行通信。实际上在现代的计算机中,存在一个控制芯片的模块。CPU需要和存储器、I/O设备等进行交互,会有多种不同功能的控制芯片,称之为控制芯片组。对于目前的计算机结构来说,控制芯片集成在主板上,典型的有南北桥结构和单芯片结构。与芯片相连接的总线可以分为前端总线(FSB)、存储总线、I/O总线、扩展总线等。
                      南北桥芯片结构
                      北桥芯片直接与CPU、内存、显卡、南桥相连,控制着CPU的类型、主板的总线频率、内存控制器、显示核心等。前端总线(FSB)是将CPU连接到北桥芯片的总线。内存总线是将内存连接到北桥芯片的总线,用于和北桥之间的通信。显卡则通过I/O总线连接到北桥芯片。
                      南桥芯片主要负责外部设备接口与内部CPU的联系。其中,通过I/O总线将外部I/O设备连接到南桥,比如USB设备、ATA和SATA设备以及一些扩展接口。扩展总线则是指主板上提供的一些PCI、ISA等插槽。
                      单芯片结构
                      单芯片组方式取消了北桥。由于CPU中内置了内存控制器,不再需要通过北桥来控制,这样就能提高内存控制器的频率,减少延迟。还有一些CPU集成了显示单元,使得显示芯片的频率更高,延迟更低。
               常见总线
               常见总线包括:
               (1)ISA总线。ISA是工业标准总线,只能支持16位的I/O设备,数据传输率大约是16MB/s,也称为AT标准。
               (2)EISA总线。EISA是在ISA总线的基础上发展起来的32位总线。该总线定义32位地址线、32位数据线以及其他控制信号线、电源线、地线等共196个接点。总线传输速率达33MB/s。
               (3)PCI总线。PCI总线是目前微型机上广泛采用的内总线,采用并行传输方式。PCI总线有适于32位机的124个信号的标准和适于64位机的188个信号的标准。PCI总线的传输速率至少为133MB/s,64位PCI总线的传输速率为266MB/s。PCI总线的工作与CPU的工作是相互独立的,也就是说,PCI总线时钟与处理器时钟是独立的、非同步的。PCI总线上的设备是即插即用的。接在PCI总线上的设备均可以提出总线请求,通过PCI管理器中的仲裁机构允许该设备成为主控设备,主控设备与从属设备间可以进行点对点的数据传输。PCI总线能够对所传输的地址和数据信号进行奇偶校验检测。
               (4)PCI Express总线。PCI Express简称为PCI-E,采用点对点串行连接,每个设备都有自己的专用连接,不需要向整个总线请求带宽,而且可以把数据传输率提高到一个很高的频率。相对于传统PCI总线在单一时间周期内只能实现单向传输,PCI Express的双单工连接能提供更高的传输速率和质量。
               PCI Express的接口根据总线位宽不同而有所差异,包括X1、X4、X8以及X16(X2模式将用于内部接口而非插槽模式),其中X1的传输速度为250MB/s,而X16就是等于16倍于X1的速度,即是4GB/s。较短的PCI Express卡可以插入较长的PCI Express插槽中使用。PCI Express接口能够支持热拔插。同时,PCI Express总线支持双向传输模式,还可以运行全双工模式,它的双单工连接能提供更高的传输速率和质量,它们之间的差异与半双工和全双工类似。因此连接的每个装置都可以使用最大带宽。
               (5)前端总线。微机系统中,前端总线(Front Side Bus,FSB)是将CPU连接到北桥芯片的总线。选购主板和CPU时,要注意两者的搭配问题,一般来说,如果CPU不超频,那么前端总线是由CPU决定的,如果主板不支持CPU所需要的前端总线,系统就无法工作。也就是说,需要主板和CPU都支持某个前端总线,系统才能工作。通常情况下,一个CPU默认的前端总线是唯一的。北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并与南桥芯片连接。CPU通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片与内存、显卡交换数据。FSB是CPU和外界交换数据的最主要通道,因此FSB的数据传输能力对计算机整体性能作用很大,如果没足够快的FSB,再强的CPU也不能明显提高计算机整体速度。
               (6)RS-232C。RS-232C是一条串行外总线,其主要特点是所需传输线比较少,最少只需三条线(一条发、一条收、一条地线)即可实现全双工通信。传送距离远,用电平传送为15m,电流环传送可达千米。有多种可供选择的传送速率。采用非归零码负逻辑工作,电平≤-3V为逻辑1,而电平≥+3V为逻辑0,具有较好的抗干扰性。
               (7)SCSI总线。小型计算机系统接口(SCSI)是一条并行外总线,广泛用于连接软硬磁盘、光盘、扫描仪等。其中,SCSI-1是第一个SCSI标准,传输速率为5MB/s;Ultra2 SCSI的传输速率为80MB/s;Ultra160 SCSI也称Ultra3 SCSI LVD,传输速率为160MB/s;Ultra320 SCSI也称Ultra4 SCSI LVD,传输速率可高达320MB/s。
               (8)SATA。SATA是Serial ATA的缩写,即串行ATA。它主要用作主板和大量存储设备(如硬盘及光盘驱动器)之间的数据传输。SATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。
               (9)USB。通用串行总线(USB)当前风头正劲,目前得到十分广泛的应用。USB由4条信号线组成,其中两条用于传送数据,另外两条传送+5V容量为500mA的电源。可以经过集线器(Hub)进行树状连接,最多可达5层。该总线上可接127个设备。USB 1.0有两种传送速率:低速为1.5Mb/s,高速为12Mb/s。USB 2.0的传送速率为480Mb/s。USB 3.0的传送速率为5Gb/s。USB总线最大的优点还在于它支持即插即用,并支持热插拔。
               (10)IEEE-1394。IEEE-1394是高速串行外总线,近几年得到广泛应用。IEEE-1394也支持外设热插拔,可为外设提供电源,省去了外设自带的电源,能连接多个不同设备,支持同步和异步数据传输。IEEE-1394由6条信号线组成,其中两条用于传送数据,两条传送控制信号,另外两条传送8~40V容量为1500mA的电源,IEEE-1394总线理论上可接63个设备。IEEE-1394的传送速率从400Mb/s、800Mb/s、1600Mb/s直到3.2Gb/s。
               (11)IEEE-488总线。IEEE-488是并行总线接口标准。微计算机、数字电压表、数码显示器等设备及其他仪器仪表均可用IEEE-488总线连接装配,它按照位并行、字节串行双向异步方式传输信号,连接方式为总线方式,仪器设备不需中介单元直接并联于总线上。总线上最多可连接15台设备。最大传输距离为20m,信号传输速率一般为500KB/s,最大传输速率为1MB/s。
   题号导航      2017年下半年 网络规划设计师 上午试卷 综合知识   本试卷我的完整做题情况  
1 /
2 /
3 /
4 /
5 /
6 /
7 /
8 /
9 /
10 /
11 /
12 /
13 /
14 /
15 /
 
16 /
17 /
18 /
19 /
20 /
21 /
22 /
23 /
24 /
25 /
26 /
27 /
28 /
29 /
30 /
 
31 /
32 /
33 /
34 /
35 /
36 /
37 /
38 /
39 /
40 /
41 /
42 /
43 /
44 /
45 /
 
46 /
47 /
48 /
49 /
50 /
51 /
52 /
53 /
54 /
55 /
56 /
57 /
58 /
59 /
60 /
 
61 /
62 /
63 /
64 /
65 /
66 /
67 /
68 /
69 /
70 /
71 /
72 /
73 /
74 /
75 /
 
第37题    在手机中做本题