高级程序设计语言语言中的i/o可用于什么程序

>> 文章内容
解析:在一个单CPU的计算机系统中,采用按优先级抢占的进程调度方案,且所有任务可以并行使用I/O设备。现在
【信管网:项目管理师专业网站】
2015年上半年软考高级信息系统项目管理师综合知识真题解析:
69、在一个单CPU的计算机系统中,采用按优先级抢占的进程调度方案,且所有任务可以并行使用I/O设备。现在有三个任务T1、T2和T3,其优先级分别为高、中、低,每个任务需要先占用CPU 10ms,然后再使用I/O设备13ms,最后还需要再占用CPU 5ms。如果操作系统的开销忽略不计,这三个任务从开始到全部结束所用的总时间为()ms
信管网解析:
软题库类似题目:
本题考查的是操作系统进程调度方面的知识。
根据题意可知,三个任务的优先级T1&T2&T3,所有任务可以并行使用I/O设备:说明不同任务的I/O可以同时进行,进程调度过程如下图所示。分析如下:
t0时刻:进程调度程序选任务T1投入运行,运行10ms,任务T1占用I/O;
t1时刻:此时由于CPU空闲,进程调度程序选任务T2投入运行,运行10ms后任务T2占用I/O。此时,t1与t2时刻任务T1占用I/O,任务T2在运行。
t2时刻:此时由于CPU空闲,进程调度程序选任务T3投入运行,运行3ms后,任务T1结束占用I/O。此时,t2与t3时刻任务T1、任务T2占用I/O,任务T3在运行。
t3时刻:由于系统采用可剥夺式优先级的进程调度方案,所以,强行地将任务T3占用的CPU剥夺,分配给任务T1。在运行5ms后到t4时刻任务T1运行完毕。此时,t3与t4时刻任务T1在运行,任务T2等待,任务T3占用I/O。
t4时刻:将CPU分配给T3运行5ms后,到t5时刻任务T2结束占用I/O,强行地将任务T3占用的CPU剥夺,任务T2开始运行。此时,t4与t5时刻任务T1结束,任务T2占用I/O,任务T3在运行。
t5时刻:运行5ms后,到t6时刻任务T2运行完毕。
t6时刻:系统将CPU分配给任务3,运行2ms后,到t7时刻任务T3占用I/O。
t7时刻到t6时刻:共计13ms,没有待运行的任务。
t8时刻:任务T3结束占用I/O,运行5ms后,到t9时刻任务T3运行结束。&
从以上分析可见,这三个任务从同时启动到全部结束的总时间为58ms,CPU的空闲时间共有13ms
参考答案:C
点击查看&&
信息系统项目管理师培训
李老师:信息系统项目管理师、国家工信部和科技部专家、高级项目经理、12年培训经验,编写了多本教材,...
各省市软考报名简章
合作网站内容服务端 I/O 性能大比拼:Node、PHP、Java 和 Go
英文:BRAD PEABODY,编译:dogstar
www.itran.cc//server-side-io-performance-node-php-java-go/
理解应用程序的输入/输出(I/O)模型,意味着其在计划处理负载与残酷的实际使用场景之间的差异。若应用程序比较小,也没有服务于很高的负载,也许它影响甚微。但随着应用程序的负载逐渐上涨,采用错误的I/O模型有可能会让你到处踩坑,伤痕累累。
正如大部分存在多种解决途径的场景一样,重点不在于哪一种途径更好,而是在于理解如何进行权衡。让我们来参观下I/O的景观,看下可以从中窃取点什么。
在这篇文章,我们将会结合Apache分别比较Node,Java,Go,和PHP,讨论这些不同的语言如何对他们的I/O进行建模,各个模型的优点和缺点,并得出一些初步基准的结论。如果关心你下一个Web应用的I/O性能,那你就找对文章了。
I/O基础知识:快速回顾
为了理解与I/O密切相关的因素,必须先来回顾在操作系统底层的概念。虽然不会直接处理这些概念的大部分,但通过应用程序的运行时环境你一直在间接地处理他们。而关键在于细节。
首先,我们有系统调用,它可以描述成这样:
你的程序(在“用户区域”,正如他们所说的)必须让操作系统内核在它自身执行I/O操作。
“系统调用”(syscall)意味着你的程序要求内核做某事。不同的操作系统,实现系统调用的细节有所不同,但基本的概念是一样的。这将会有一些特定的指令,把控制权从你的程序转交到内核(类似函数调用但有一些专门用于处理这种场景的特殊sauce)。通常来说,系统调用是阻塞的,意味着你的程序需要等待内核返回到你的代码。
内核在我们所说的物理设备(硬盘、网卡等)上执行底层的I/O操作,并回复给系统调用。在现实世界中,内核可能需要做很多事情才能完成你的请求,包括等待设备准备就绪,更新它的内部状态等,但作为一名应用程序开发人员,你可以不用关心这些。以下是内核的工作情况。
阻塞调用与非阻塞调用
好了,我刚刚在上面说系统调用是阻塞的,通常来说这是对的。然而,有些调用被分类为“非阻塞”,意味着内核接收了你的请求后,把它放进了队列或者缓冲的某个地方,然后立即返回而并没有等待实际的I/O调用。所以它只是“阻塞”了一段非常短的时间,短到只是把你的请求入列而已。
这里有一些有助于解释清楚的(Linux系统调用)例子:-read()是阻塞调用——你传给它一个文件句柄和一个存放所读到数据的缓冲,然后此调用会在当数据好后返回。注意这种方式有着优雅和简单的优点。-epoll_create(),epoll_ctl(),和epoll_wait()这些调用分别是,让你创建一组用于侦听的句柄,从该组添加/删除句柄,和然后直到有活动时才阻塞。这使得你可以通过一个线程有效地控制一系列I/O操作。如果需要这些功能,这非常棒,但也正如你所看到的,使用起来当然也相当复杂。
理解这里分时差异的数量级是很重要的。如果一个CPU内核运行在3GHz,在没有优化的情况下,它每秒执行30亿次循环(或者每纳秒3次循环)。非阻塞系统调用可能需要10纳秒这样数量级的周期才能完成——或者“相对较少的纳秒”。对于正在通过网络接收信息的阻塞调用可能需要更多的时间——例如200毫秒(0.2秒)。例如,假设非阻塞调用消耗了20纳秒,那么阻塞调用消耗了200,000,000纳秒。对于阻塞调用,你的程序多等待了1000万倍的时间。
内核提供了阻塞I/O(“从网络连接中读取并把数据给我”)和非阻塞I/O(“当这些网络连接有新数据时就告诉我”)这两种方法。而使用何种机制,对应调用过程的阻塞时间明显长度不同。
接下来第三件关键的事情是,当有大量线程或进程开始阻塞时怎么办。
出于我们的目的,线程和进程之间没有太大的区别。实际上,最显而易见的执行相关的区别是,线程共享相同的内存,而每个进程则拥有他们独自的内存空间,使得分离的进程往往占据了大量的内存。但当我们讨论调度时,它最终可归结为一个事件清单(线程和进程类似),其中每个事件需要在有效的CPU内核上获得一片执行时间。如果你有300个线程正在运行并且运行在8核上,那么你得通过每个内核运行一段很短的时间然后切换到下一个线程的方式,把这些时间划分开来以便每个线程都能获得它的分时。这是通过“上下文切换”来实现的,使得CPU可以从正在运行的某个线程/进程切换到下一个。
这些上下文切换有一定的成本——它们消耗了一些时间。在快的时候,可能少于100纳秒,但是根据实现的细节,处理器速度/架构,CPU缓存等,消耗1000纳秒甚至更长的时间也并不罕见。
线程(或者进程)越多,上下文切换就越多。当我们谈论成千上万的线程,并且每一次切换需要数百纳秒时,速度将会变得非常慢。
然而,非阻塞调用本质上是告诉内核“当你有一些新的数据或者这些连接中的任意一个有事件时才调用我”。这些非阻塞调用设计于高效地处理大量的I/O负载,以及减少上下文切换。
到目前为止你还在看这篇文章吗?因为现在来到了有趣的部分:让我们来看下一些流利的语言如何使用这些工具,并就在易用性和性能之间的权衡作出一些结论……以及其他有趣的点评。
请注意,虽然在这篇文章中展示的示例是琐碎的(并且是不完整的,只是显示了相关部分的代码),但数据库访问,外部缓存系统(memcache等全部)和需要I/O的任何东西,都以执行某些背后的I/O操作而结束,这些和展示的示例一样有着同样的影响。同样地,对于I/O被描述为“阻塞”(PHP,Java)这样的情节,HTTP请求与响应的读取与写入本身是阻塞的调用:再一次,更多隐藏在系统中的I/O及其伴随的性能问题需要考虑。
为项目选择编程语言要考虑的因素有很多。当你只考虑性能时,要考虑的因素甚至有更多。但是,如果你关注的是程序主要受限于I/O,如果I/O性能对于你的项目至关重要,那这些都是你需要了解的。“保持简单”的方法:PHP。
回到90年代的时候,很多人穿着匡威鞋,用Perl写着CGI脚本。随后出现了PHP,很多人喜欢使用它,它使得制作动态网页更为容易。
PHP使用的模型相当简单。虽然有一些变化,但基本上PHP服务器看起来像:
HTTP请求来自用户的浏览器,并且访问了你的Apache网站服务器。Apache为每个请求创建一个单独的进程,通过一些优化来重用它们,以便最大程度地减少其需要执行的次数(创建进程相对来说较慢)。Apache调用PHP并告诉它在磁盘上运行相应的.php文件。PHP代码执行并做一些阻塞的I/O调用。若在PHP中调用了file_get_contents(),那在背后它会触发read()系统调用并等待结果返回。
当然,实际的代码只是简单地嵌在你的页面中,并且操作是阻塞的:
&?php// 阻塞的文件I/O
$file_data= file_get_contents('/path/to/file.dat');
// 阻塞的网络I/O
$curl= curl_init('/example-microservice');
$result= curl_exec($curl);
// 更多阻塞的网络I/O
$result= $db-&query('SELECT id, data FROM examples ORDER BY id DESC limit 100');
关于它如何与系统集成,就像这样:
相当简单:一个请求,一个进程。I/O是阻塞的。优点是什么呢?简单,可行。那缺点是什么呢?同时与20,000个客户端连接,你的服务器就挂了。由于内核提供的用于处理大容量I/O(epoll等)的工具没有被使用,所以这种方法不能很好地扩展。更糟糕的是,为每个请求运行一个单独的过程往往会使用大量的系统资源,尤其是内存,这通常是在这样的场景中遇到的第一件事情。
注意:Ruby使用的方法与PHP非常相似,在广泛而普遍的方式下,我们可以将其视为是相同的。
多线程的方式:Java
所以就在你买了你的第一个域名的时候,Java来了,并且在一个句子之后随便说一句“dot com”是很酷的。而Java具有语言内置的多线程(特别是在创建时),这一点非常棒。
大多数Java网站服务器通过为每个进来的请求启动一个新的执行线程,然后在该线程中最终调用作为应用程序开发人员的你所编写的函数。
在Java的Servlet中执行I/O操作,往往看起来像是这样:
publicvoiddoGet(HttpServletRequest request,
HttpServletResponse response)throws ServletException,IOException
// 阻塞的文件I/O
InputStream fileIs= newFileInputStream("/path/to/file");
// 阻塞的网络I/O
URLConnection urlConnection= (newURL("/example-microservice")).openConnection();
InputStream netIs= urlConnection.getInputStream();
// 更多阻塞的网络I/O
out.println("...");
由于我们上面的doGet方法对应于一个请求并且在自己的线程中运行,而不是每次请求都对应需要有自己专属内存的单独进程,所以我们会有一个单独的线程。这样会有一些不错的优点,例如可以在线程之间共享状态、共享缓存的数据等,因为它们可以相互访问各自的内存,但是它如何与调度进行交互的影响,仍然与前面PHP例子中所做的内容几乎一模一样。每个请求都会产生一个新的线程,而在这个线程中的各种I/O操作会一直阻塞,直到这个请求被完全处理为止。为了最小化创建和销毁它们的成本,线程会被汇集在一起,但是依然,有成千上万个连接就意味着成千上万个线程,这对于调度器是不利的。
一个重要的里程碑是,在Java 1.4 版本(和再次显著升级的1.7 版本)中,获得了执行非阻塞I/O调用的能力。大多数应用程序,网站和其他程序,并没有使用它,但至少它是可获得的。一些Java网站服务器尝试以各种方式利用这一点; 然而,绝大多数已经部署的Java应用程序仍然如上所述那样工作。
Java让我们更进了一步,当然对于I/O也有一些很好的“开箱即用”的功能,但它仍然没有真正解决问题:当你有一个严重I/O绑定的应用程序正在被数千个阻塞线程狂拽着快要坠落至地面时怎么办。
作为一等公民的非阻塞I/O:Node
当谈到更好的I/O时,Node.js无疑是新宠。任何曾经对Node有过最简单了解的人都被告知它是“非阻塞”的,并且它能有效地处理I/O。在一般意义上,这是正确的。但魔鬼藏在细节中,当谈及性能时这个巫术的实现方式至关重要。
本质上,Node实现的范式不是基本上说“在这里编写代码来处理请求”,而是转变成“在这里写代码开始处理请求”。每次你都需要做一些涉及I/O的事情,发出请求或者提供一个当完成时Node会调用的回调函数。
在求中进行I/O操作的典型Node代码,如下所示:
http.createServer(function(request,response){
fs.readFile('/path/to/file','utf8',function(err,data){
response.end(data);
可以看到,这里有两个回调函数。第一个会在请求开始时被调用,而第二个会在文件数据可用时被调用。
这样做的基本上给了Node一个在这些回调函数之间有效地处理I/O的机会。一个更加相关的场景是在Node中进行数据库调用,但我不想再列出这个烦人的例子,因为它是完全一样的原则:启动数据库调用,并提供一个回调函数给Node,它使用非阻塞调用单独执行I/O操作,然后在你所要求的数据可用时调用回调函数。这种I/O调用队列,让Node来处理,然后获取回调函数的机制称为“事件循环”。它工作得非常好。
然而,这个模型中有一道关卡。在幕后,究其原因,更多是如何实现Java V8 引擎(Chrome的JS引擎,用于Node)1,而不是其他任何事情。你所编写的JS代码全部都运行在一个线程中。思考一下。这意味着当使用有效的非阻塞技术执行I/O时,正在进行CPU绑定操作的JS可以在运行在单线程中,每个代码块阻塞下一个。 一个常见的例子是循环数据库记录,在输出到客户端前以某种方式处理它们。以下是一个例子,演示了它如何工作:
varhandler= function(request,response){
connection.query('SELECT ...',function(err,rows){
if(err){throwerr};
for(vari= 0;i& rows.length;i++){
// 对每一行纪录进行处理
response.end(...);// 输出结果
虽然Node确实可以有效地处理I/O,但上面的例子中的for循环使用的是在你主线程中的CPU周期。这意味着,如果你有10,000个连接,该循环有可能会让你整个应用程序慢如蜗牛,具体取决于每次循环需要多长时间。每个请求必须分享在主线程中的一段时间,一次一个。
这个整体概念的前提是I/O操作是最慢的部分,因此最重要是有效地处理这些操作,即使意味着串行进行其他处理。这在某些情况下是正确的,但不是全都正确。
另一点是,虽然这只是一个意见,但是写一堆嵌套的回调可能会令人相当讨厌,有些人认为它使得代码明显无章可循。在Node代码的深处,看到嵌套四层、嵌套五层、甚至更多层级的嵌套并不罕见。
我们再次回到了权衡。如果你主要的性能问题在于I/O,那么Node模型能很好地工作。然而,它的阿喀琉斯之踵(译者注:来自希腊神话,表示致命的弱点)是如果不小心的话,你可能会在某个函数里处理HTTP请求并放置CPU密集型代码,最后使得每个连接慢得如蜗牛。
真正的非阻塞:Go
在进入Go这一章节之前,我应该披露我是一名Go粉丝。我已经在许多项目中使用Go,是其生产力优势的公开支持者,并且在使用时我在工作中看到了他们。
也就是说,我们来看看它是如何处理I/O的。Go语言的一个关键特性是它包含自己的调度器。并不是每个线程的执行对应于一个单一的OS线程,Go采用的是“goroutines”这一概念。Go运行时可以将一个goroutine分配给一个OS线程并使其执行,或者把它挂起而不与OS线程关联,这取决于goroutine做的是什么。来自Go的HTTP服务器的每个请求都在单独的Goroutine中处理。
此调度器工作的示意图,如下所示:
这是通过在Go运行时的各个点来实现的,通过将请求写入/读取/连接/等实现I/O调用,让当前的goroutine进入睡眠状态,当可采取进一步行动时用信息把goroutine重新唤醒。
实际上,除了回调机制内置到I/O调用的实现中并自动与调度器交互外,Go运行时做的事情与Node做的事情并没有太多不同。它也不受必须把所有的处理程序代码都运行在同一个线程中这一限制,Go将会根据其调度器的逻辑自动将Goroutine映射到其认为合适的OS线程上。最后代码类似这样:
func ServeHTTP(whttp.ResponseWriter,r*http.Request){
// 这里底层的网络调用是非阻塞的
rows,err:= db.Query("SELECT ...")
for_,row:= rangerows{
// 处理rows
// 每个请求在它自己的goroutine中
w.Write(...)// 输出响应结果,也是非阻塞的
正如你在上面见到的,我们的基本代码结构像是更简单的方式,并且在背后实现了非阻塞I/O。
在大多数情况下,这最终是“两个世界中最好的”。非阻塞I/O用于全部重要的事情,但是你的代码看起来像是阻塞,因此往往更容易理解和维护。Go调度器和OS调度器之间的交互处理了剩下的部分。这不是完整的魔法,如果你建立的是一个大型的系统,那么花更多的时间去理解它工作原理的更多细节是值得的; 但与此同时,“开箱即用”的环境可以很好地工作和很好地进行扩展。
Go可能有它的缺点,但一般来说,它处理I/O的方式不在其中。
谎言,诅咒的谎言和基准
对这些各种模式的上下文切换进行准确的定时是很困难的。也可以说这对你来没有太大作用。所以取而代之,我会给出一些比较这些服务器环境的HTTP服务器性能的基准。请记住,整个端对端的HTTP请求/响应路径的性能与很多因素有关,而这里我放在一起所提供的数据只是一些样本,以便可以进行基本的比较。
对于这些环境中的每一个,我编写了适当的代码以随机字节读取一个64k大小的文件,运行一个SHA-256哈希N次(N在URL的查询字符串中指定,例如.../test.php?n=100),并以十六进制形式打印生成的散列。我选择了这个示例,是因为使用一些一致的I/O和一个受控的方式增加CPU使用率来运行相同的基准测试是一个非常简单的方式。
首先,来看一些低并发的例子。运行2000次迭代,并发300个请求,并且每次请求只做一次散列(N = 1),可以得到:
时间是在全部并发请求中完成请求的平均毫秒数。越低越好。
很难从一个图表就得出结论,但对于我来说,似乎与连接和计算量这些方面有关,我们看到时间更多地与语言本身的一般执行有关,因此更多在于I/O。请注意,被认为是“脚本语言”(输入随意,动态解释)的语言执行速度最慢。
但是如果将N增加到1000,仍然并发300个请求,会发生什么呢 —— 相同的负载,但是hash迭代是之前的100倍(显着增加了CPU负载):
时间是在全部并发请求中完成请求的平均毫秒数。越低越好。
忽然之间,Node的性能显着下降了,因为每个请求中的CPU密集型操作都相互阻塞了。有趣的是,在这个测试中,PHP的性能要好得多(相对于其他的语言),并且打败了Java。(值得注意的是,在PHP中,SHA-256实现是用C编写的,执行路径在这个循环中花费更多的时间,因为这次我们进行了1000次哈希迭代)。
现在让我们尝试5000个并发连接(并且N = 1)—— 或者接近于此。不幸的是,对于这些环境的大多数,失败率并不明显。对于这个图表,我们会关注每秒的请求总数。越高越好:
每秒的请求总数。越高越好。
这张照片看起来截然不同。这是一个猜测,但是看起来像是对于高连接量,每次连接的开销与产生新进程有关,而与PHP + Apache相关联的额外内存似乎成为主要的因素并制约了PHP的性能。显然,Go是这里的冠军,其次是Java和Node,最后是PHP。
综上所述,很显然,随着语言的演进,处理大量I/O的大型应用程序的解决方案也随之不断演进。
为了公平起见,暂且抛开本文的描述,PHP和Java确实有可用于Web应用程序的非阻塞I/O的实现。 但是这些方法并不像上述方法那么常见,并且需要考虑使用这种方法来维护服务器的伴随的操作开销。更不用说你的代码必须以与这些环境相适应的方式进行结构化; “正常”的PHP或Java Web应用程序通常不会在这样的环境中进行重大改动。
作为比较,如果只考虑影响性能和易用性的几个重要因素,可以得到:
语言线程或进程非阻塞I/O易用性
线程(Goroutine)
不需要回调
线程通常要比进程有更高的内存效率,因为它们共享相同的内存空间,而进程则没有。结合与非阻塞I/O相关的因素,当我们向下移动列表到一般的启动时,因为它与改善I/O有关,可以看到至少与上面考虑的因素一样。如果我不得不在上面的比赛中选出一个冠军,那肯定会是Go。
即便这样,在实践中,选择构建应用程序的环境与你的团队对于所述环境的熟悉程度以及可以实现的总体生产力密切相关。因此,每个团队只是一味地扎进去并开始用Node或Go开发Web应用程序和服务可能没有意义。事实上,寻找开发人员或内部团队的熟悉度通常被认为是不使用不同的语言和/或不同的环境的主要原因。也就是说,过去的十五年来,时代已经发生了巨大的变化。
希望以上内容可以帮助你更清楚地了解幕后所发生的事件,并就如何处理应用程序现实世界中的可扩展性为你提供的一些想法。快乐输入,快乐输出!
看完本文有收获?请转发分享给更多人
关注「数据库开发」,提升 DB 技能
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
今日搜狐热点> 问题详情
对汇编语言程序员透明的是()。
A.I/O方式中的DMA访问
B.浮点数据表示
C.访问方式保护
D.程序性中断
悬赏:0&答案豆
提问人:匿名网友
发布时间:
对汇编语言程序员透明的是(&&)。&&A.I/O方式中的DMA访问&&B.浮点数据表示&&C.访问方式保护&&D.程序性中断
为您推荐的考试题库
您可能感兴趣的试题
1在LC正弦波振荡电路中,不用通用型集成运算放大器作放大电路的原因是其上限截止频率太低,难以产生高频振荡信号。
)2当集成运放工作在非线性区时,输出电压不是高电平,就是低电平。
)3一般情况下,电压比较器的集成运算放大器工作在开环状态,或者引入了正反馈。
我有更好的答案
相关考试课程
请先输入下方的验证码查看最佳答案
图形验证:
验证码提交中……
找答案会员
享三项特权
找答案会员
享三项特权
找答案会员
享三项特权
选择支付方式:
支付宝付款
郑重提醒:支付后,系统自动为您完成注册
请使用微信扫码支付(元)
支付后,系统自动为您完成注册
遇到问题请联系在线客服QQ:
请您不要关闭此页面,支付完成后点击支付完成按钮
遇到问题请联系在线客服QQ:
恭喜您!升级VIP会员成功
常用邮箱:
用于找回密码
确认密码:TwinCAT I/O – 与 Windows 程序的 I/O 连接
TwinCAT I/O 是一种实时驱动程序,用于 Windows NT/2000/XP//Vista/CE 环境下运行的 Windows 程序。程序变量、系统中存在的 I/O 设备和所连接的 I/O 通道之间具有适宜的相互关系。
TwinCAT I/O
提供面向变量的 I/O 设备和任务链接
提供面向变量的任务之间的链接
最小单位为 1 位
支持同步和异步关系
数据区域与过程映像之间持续进行交换
TwinCAT I/O 支持所有已建立的现场总线,甚至可同时提供支持。
PROFIBUS DP (主站和从站)
PROFIBUS MC (运动控制)
SERCOS interface
PC printer port
串行总线耦合器 BK8100 至 COM
用于 PC 卡的内存接口(DP RAM)
SMB (系统管理总线)
开放式 I/O 接口
TwinCAT I/O 将所连接的 I/O 通道作为一个整体结构提供,并对数据传输的映射进行组织。
TwinCAT I/O 可以将服务器过程映像逐位链接到 I/O 通道,并提供一些工具,例如,它们可以通过一个单一指令连续链接多个通道。可以通过拖放的方式来移动连接。
借助于 TwinCAT I/O 系统,一项任务的输入和输出可与另一项任务的输出和输入进行循环交换 - 数据的一致性丝毫不受影响。TwinCAT I/O 是一个面向变量的系统,即它的可被寻址和链接的最小单位是一个变量,变量最小单位为 1 位。
在服务器的现场总线级和过程映像级,可以借助在线显示进行调试和维护。
TwinCAT I/O 生成任务和 I/O 设备之间的地址关系(映射),并提供了功能强大的在线工具:
以目录树形式在线显示
在线观察窗口
强制和写入调试并测试任务变量和 I/O 设备
针对所有 I/O 设备以一致的形式显示诊断数据。
TwinCAT I/O 可对变量进行管理,并在所有级别上都具有导入和导出功能。
有基于 Beckhoff CE 设备的 TwinCAT I/O 可以提供,带 TcTimer 扩展。TcTimer API 提供一个实时计时器(可从 100 μs 开始调),并可访问逻辑过程映像。通过一种方法调用触发与现场总线的数据交换。TcTimer API 使外部应用程序能够创建确定性的应用程序,这些应用程序被同步到 I/O 现场总线级。
导入/导出功能
TwinCAT I/O
标准 PC 机/工业 PC 硬件,无需额外硬件
Windows NT/2000/XP/Vista, 嵌入式 Windows NT/XP, Windows CE
Beckhoff 实时内核作为 TwinCAT 的一个组件
在用户模式中运行的用户程序,例如,它可以作为一个多媒体任务循环运行(“软”实时)。对 I/O 过程映像的访问通过循环调用 DLL 功能来实现。
CE 环境下:“硬”实时,可以同步访问过程映像
仅受计算机 RAM 大小的限制(NT/2000/XP/Vista 环境下最大为 2 GB)
50 us 可选择
以任一高级语言编写的应用程序,如 C++、Delphi、汇编程序
通过所用的高级语言的标准调试工具完成
可任意选择现场总线: EtherCAT、PROFIBUS-DP/MC、CANopeng、DeviceNet、Interbus、SERCOS、Lightbus、Ethernet、PC 硬件(打印机端口、COM 端口、USB)、PC 接口卡:支持普通内存 DPRAM
通过 OPC、Beckhoff ADS OCX/DLL(自动化设备规范)进行变量访问
(CE 环境下:还有 TcTimer API)
TwinCAT I/O
用于用 I/O DLL 与 Windows 程序交换数据的使用授权

我要回帖

更多关于 高级程序设计语言vb 的文章

 

随机推荐