杀死进程后进程中映射的linux 进程共享内存存会直接移除吗

在linux下使用共享内存进行进程间通信,在共享内存中为什么不能存放像string、vector等? - 知乎10被浏览698分享邀请回答3添加评论分享收藏感谢收起帐号:密码:下次自动登录{url:/nForum/slist.json?uid=guest&root=list-section}{url:/nForum/nlist.json?uid=guest&root=list-section}
贴数:1&分页:谢谢,别了,温哥华!发信人: ychu (恋之拉萨), 信区: KernelTech
标&&题: [合集] 共享内存被映射到进程地址空间的什么地方?
发信站: 水木社区 (Wed Jul 25 08:45:41 2007), 站内 && ☆─────────────────────────────────────☆ &&
wooow (Sheep) 于
(Thu Jul 19 10:57:54 2007)
提到: && 很多书上都没有提到 。。 &&&& ☆─────────────────────────────────────☆ &&
kirbyzhou (世界太小 梦想太大) 于
(Thu Jul 19 11:03:50 2007)
提到: && 随便什么地方,哪儿有空往哪塞
malloc在分配大内存的时候还是直接mmap呢
【 在 wooow (Sheep) 的大作中提到: 】
: 很多书上都没有提到 。。
&&&&&&&& ☆─────────────────────────────────────☆ &&
wooow (Sheep) 于
(Thu Jul 19 11:06:42 2007)
提到: && 那么会否影响 brk的位置?比如如果brk增长到共享内存映射到的地方怎么办?
【 在 kirbyzhou (世界太小 梦想太大) 的大作中提到: 】
: 随便什么地方,哪儿有空往哪塞
: malloc在分配大内存的时候还是直接mmap呢
&&&&&&&& ☆─────────────────────────────────────☆ &&
kirbyzhou (世界太小 梦想太大) 于
(Thu Jul 19 11:15:06 2007)
提到: && OS在mmap的时候会尽量远离brk的增长方向
但是命背也不能怨社会……
anyway,现在malloc不是那么依赖brk的,所以无所谓了 && 【 在 wooow (Sheep) 的大作中提到: 】
: 那么会否影响 brk的位置?比如如果brk增长到共享内存映射到的地方怎么办?
&&&&&&&& ☆─────────────────────────────────────☆ &&
wooow (Sheep) 于
(Thu Jul 19 11:26:53 2007)
提到: && malloc不依赖brk怎么理解?
我现在的程序中malloc到一定程度brk就不再增长了(确定不存在malloc使用free后的空间的情况),而malloc返回地址却还会增长,
不知道是怎么回事,知道调用的库中使用了共享内存,所以现在在怀疑是否是它的影响,
但搞不明白。。。
【 在 kirbyzhou (世界太小 梦想太大) 的大作中提到: 】
: OS在mmap的时候会尽量远离brk的增长方向
: 但是命背也不能怨社会……
: anyway,现在malloc不是那么依赖brk的,所以无所谓了
: ...................
&&&&&& ☆─────────────────────────────────────☆ &&
wooow (Sheep) 于
(Thu Jul 19 14:58:24 2007)
提到: && 用strace看了一下,brk到1G后就不继续增长了,而是通过 mmap分配新的内存空间。
自己另写了一个测试程序,就是在一个死循环中不断 malloc,发现brk可以到上百G(64位
系统),brk的大小限制是采用什么原则呢?3x
【 在 kirbyzhou (世界太小 梦想太大) 的大作中提到: 】
: OS在mmap的时候会尽量远离brk的增长方向
: 但是命背也不能怨社会……
: anyway,现在malloc不是那么依赖brk的,所以无所谓了
: ...................
&&&&&& ☆─────────────────────────────────────☆ &&
farseer (水煮鱼) 于
(Thu Jul 19 19:28:57 2007)
提到: && libc设定的
brk的是pool小的块,大的块用mmap
brk的限制可以用getrlimit获得
【 在 wooow (Sheep) 的大作中提到: 】
: 用strace看了一下,brk到1G后就不继续增长了,而是通过 mmap分配新的内存空间。
: 自己另写了一个测试程序,就是在一个死循环中不断 malloc,发现brk可以到上百G(64位
: 系统),brk的大小限制是采用什么原则呢?3x
: ...................
&&&&&& ☆─────────────────────────────────────☆ &&
colyli (coly) 于
(Fri Jul 20 00:15:28 2007)
提到: && 如果不在brk的范围内的话,那应用程序如何寻址访问这段共享地址呢? && 【 在 kirbyzhou (世界太小 梦想太大) 的大作中提到: 】
: OS在mmap的时候会尽量远离brk的增长方向
: 但是命背也不能怨社会……
: anyway,现在malloc不是那么依赖brk的,所以无所谓了
: ...................
&&&&&& ☆─────────────────────────────────────☆ &&
ychu (恋之拉萨) 于
(Fri Jul 20 09:28:07 2007)
提到: && brk到1G不增长?你的是什么版本?2.6.7-mm就可以reorganizing address space,mmap的地址从栈下开始,增加了堆的可用空间。我在2.6.20上测也是如此,大malloc分配的地址空间就是从栈下开始mmap分配,栈的空间由rlimit中限制(ulimit -s). && 【 在 wooow (Sheep) 的大作中提到: 】
: 用strace看了一下,brk到1G后就不继续增长了,而是通过 mmap分配新的内存空间。
: 自己另写了一个测试程序,就是在一个死循环中不断 malloc,发现brk可以到上百G(64位
: 系统),brk的大小限制是采用什么原则呢?3x
: ...................
&&&&&& ☆─────────────────────────────────────☆ &&
ychu (恋之拉萨) 于
(Fri Jul 20 09:50:10 2007)
提到: && brk的限制不明白你怎么用getrlimit看的,RLIMIT_DATA么,那个一般都是默认的unlimited,并且是initialized data, uninitialized data, and heap的总和。 && 【 在 farseer (水煮鱼) 的大作中提到: 】
: libc设定的
: brk的是pool小的块,大的块用mmap
: brk的限制可以用getrlimit获得
: ...................
&&&&&& ☆─────────────────────────────────────☆ &&
wooow (Sheep) 于
(Fri Jul 20 11:09:38 2007)
提到: && brk到1G应该和系统没关系,我用了个第三方的库,就发现了这种情况,其它的程序没有。所以我想知道是什么造成了这种差别
【 在 ychu (恋之拉萨) 的大作中提到: 】
: brk到1G不增长?你的是什么版本?2.6.7-mm就可以reorganizing address space,mmap的地址从栈下开始,增加了堆的可用空间。我在2.6.20上测也是如此,大malloc分配的地址空间就是从栈下开始mmap分配,栈的空间由rlimit中限制(ulimit -s).
&&&&&&&& ☆─────────────────────────────────────☆ &&
farseer (水煮鱼) 于
(Fri Jul 20 19:27:33 2007)
提到: && 也许man关于数据段的解释搞错了,默认值是那样
至少2.6的kernel不是这样,我在fedora.unix-center.net上测试也证明man错了
谁到别的机器上试试
【 在 ychu (恋之拉萨) 的大作中提到: 】
: brk的限制不明白你怎么用getrlimit看的,RLIMIT_DATA么,那个一般都是默认的unlimited,并且是initialized data, uninitialized data, and heap的总和。
&&&&&&&& ☆─────────────────────────────────────☆ &&
ychu (恋之拉萨) 于
(Fri Jul 20 20:21:46 2007)
提到: && 如果不是很肯定就不要说至少2.6内核不是这样,你看一下sys_brk中的sanity检查,结合系统RLIMIT_DATA默认设置,再讨论吧. && 【 在 farseer (水煮鱼) 的大作中提到: 】
: 也许man关于数据段的解释搞错了,默认值是那样
: 至少2.6的kernel不是这样,我在fedora.unix-center.net上测试也证明man错了
: 谁到别的机器上试试
: ...................
&&&&&& ☆─────────────────────────────────────☆ &&
farseer (水煮鱼) 于
(Sun Jul 22 20:52:38 2007)
提到: && 你怎么知道我没看过?
【 在 ychu (恋之拉萨) 的大作中提到: 】
: 如果不是很肯定就不要说至少2.6内核不是这样,你看一下sys_brk中的sanity检查,结合系统RLIMIT_DATA默认设置,再讨论吧.
&&&&&&&& ☆─────────────────────────────────────☆ &&
laws (law) 于
(Mon Jul 23 10:46:20 2007)
提到: && cat /proc/pid/map
然后读 mm/mmap.c
【 在 wooow (Sheep) 的大作中提到: 】
: 很多书上都没有提到 。。
&&&&&&&&&& ☆─────────────────────────────────────☆ &&
sudo (大额新) 于
(Mon Jul 23 12:37:56 2007)
提到: && hi, 大牛
【 在 laws (law) 的大作中提到: 】
: cat /proc/pid/map
: 然后读 mm/mmap.c
&&&&&&&& ☆─────────────────────────────────────☆ &&
ychu (恋之拉萨) 于
(Tue Jul 24 09:14:13 2007)
提到: && Fedora.Unix-Center.Net上默认的
-bash-3.1$ ulimit -a
core file size&&&&&&&&&&(blocks, -c) 0
data seg size&&&&&&&&&& (kbytes, -d) 100000
他们修改了用户配置。 &&&&&& 【 在 farseer (水煮鱼) 的大作中提到: 】
: 你怎么知道我没看过?
&&&&&&&& 文章数:1&分页:4434人阅读
linux(18)
共享内存段被映射进进程空间之后,存在于进程空间的什么位置?共享内存段最大限制是多少?
存在于进程数据段,最大限制是0x2000000Byte
将一块内存映射到两个或者多个进程地址空间。通过指针访问该共享内存区。一般通过mmap将文件映射到进程地址共享区。
Linux对共享内存的实现,在2.6采用了内存映射技术。对于内存共享,主要集中在三个内核函数,他们是do_shmat,sys_shmat和sys_shmdt。其中,sys_shmat调用了do_shmat最终实现了共享内存的attach。sys_shmdt实现了共享内存的detach和destroy。下面我主要对这三个函数的源码进行分析。在分析之前,首先介绍共享内存实现原理。
&&&&我们知道,LINUX的进程拥有自己独立的地址空间,这点和vxworks是不同的。系统中多个进程共享同一内存段,可以通过系统提供的共享内存机制进行。当进程向系统提出创建或附着共享内存的申请的时候,内核会为每一个新的共享内存段提供一个shmid_kernel的数据结构来维护共享段和文件系统之间的关系(也可以理解成共享内存段和文件系统之间建立关系的桥梁)。下面就是这个数据结构:
这个数据结构定义在shm.h头文件中
struct shmid_kernel /* private to the kernel */
&&&&struct kern_ipc_perm&&&&shm_ //&访问权限的信息
&&&&struct file *&&&&&&&shm_ //&指向虚拟文件系统的指针
&&&&unsigned long&&&&&&&shm_ //&有多少个进程attach上了这个共享内存段
&&&&unsigned long&&&&&&&shm_ //&共享内存段大小
&&&&//&以下是一些访问时间的相关信息
&&&&time_t&&&&&&&&&&shm_
&&&&time_t&&&&&&&&&&shm_
&&&&time_t&&&&&&&&&&shm_ctim;
&&&&pid_t&&&&&&&&&&&shm_
&&&&pid_t&&&&&&&&&&&shm_
&&&&struct user_struct&&*mlock_
该数据结构中最重要的部分就是shm_file这个字段。它指向了共享内存对应的文件。在该结构中有一个字段,f_mapping,它指向了该内存段使用的页面(物理内存)。同时,结构中,也包含一个字段,f_path,用于指向文件系统中的文件(dentry-&inode),这样就建立了物理内存和文件系统的桥梁。当进程需要创建或者attach共享内存的时候,在用户态,会先向虚拟内存系统申请各自的vma_struct,并将其插入到各自任务的红黑树中,该结构中有一个成员vm_file,它指向的就是struct
file(shm_file)。这样虚拟内存、共享内存(文件系统)和物理内存就建立了连接。
接着我们来看看主要的函数:
do_shmat:
1.&&&&&&&&&这个函数首先根据shared memory的id,在内核中查找相应的shmid_struct。
&&&&&&&shp = shm_lock_check(ns, shmid);
&&&&&&&if (IS_ERR(shp)) {
&&&&&&&&&&&&&&err = PTR_ERR(shp);
&&&&&&&&&&&&&&
2.&&&&&&&&&对访问者进行访问权限检查
&&&&&&&if (ipcperms(&shp-&shm_perm, acc_mode))
&&&&&&&&&&&&&&goto out_
3.&&&&&&&&&获取共享内存对应的文件的信息。
获取文件表项
&&&&&&&path.dentry = dget(shp-&shm_file-&f_path.dentry);
&&&&&&&获取挂接点
&&&&&&&path.mnt&&&&= shp-&shm_file-&f_path.
&&&&&&&共享内存引用计数自增
&&&&&&&shp-&shm_nattch++;
&&&&&&&通过i节点获取文件大小
&&&&&&&size = i_size_read(path.dentry-&d_inode);
4.&&&&&&&&&分配相应的数据结构,并进行初始化。
&&&&&&&err = -ENOMEM;
&&&&&&&从slab分配其中分配shm_file_data数据结构
&&&&&&&sfd = kzalloc(sizeof(*sfd), GFP_KERNEL);
&&&&&&&if (!sfd)
&&&&&&&&&&&&&&goto out_put_
&&&&&&&分配一个struct file的数据结构
&&&&&&&file = alloc_file(path.mnt, path.dentry, f_mode, &shm_file_operations);
&&&&&&&if (!file)
&&&&&&&&&&&&&&goto out_
&&&&&&&初始化file。
&&&&&&&file-&private_data =
&&&&&&&file-&f_mapping = shp-&shm_file-&f_
&&&&&&&sfd-&id = shp-&shm_perm.
&&&&&&&sfd-&ns = get_ipc_ns(ns);
&&&&&&&sfd-&file = shp-&shm_
&&&&&&&sfd-&vm_ops = NULL;
5.&&&&&&&&&最后进行内存映射,完成attach操作。
&&&&&&&user_addr = do_mmap (file, addr, size, prot, flags, 0);
sys_shmat:
他是系统调用函数,他调用了do_shmat。
sys_shmdt:
首先查找相应的vma,如果找到执行ummap操作。
&&相关文章推荐
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:116491次
积分:1128
积分:1128
排名:千里之外
原创:19篇
转载:32篇
(5)(3)(7)(8)(26)(2)
(window.slotbydup = window.slotbydup || []).push({
id: '4740887',
container: s,
size: '250,250',
display: 'inlay-fix'当前位置: >>>
Unix/Linux的内存映射
共享内存可以说是最有用的进程间通信方式,也是最快的IPC形式;两个不同的进程A和B共享内存的意思就是:同一块物理内存即被映射到进程A的地址空间中又内映射到进程B的地址空间中.
共享内存可以说是最有用的进程间通信方式,也是最快的IPC形式;两个不同的进程A和B共享内存的意思就是:同一块物理内存即被映射到进程A的地址空间中又内映射到进程B的地址空间中.进程A可以实时地看到进程B对共享内存中数据的更新,反之,进程B也可以实时地看到进程A对共享内存的更新;由于多个进程同时访问同一块共享内存区域,那就需要某种同步机制来保证多个不同进程对共享内存的访问,互斥锁、信号量/信号灯、信号量集都可以;
采用共享内存来实现进程间通信的一个很明显的好处就是:进程可以直接读写内存,基本上不需要任何额外的数据拷贝.而对于像管道、消息队列之类的IPC方式,则需要在内核空间和用户空间之间进行四次数据拷贝,而共享内存则只需要两次拷贝:一次是从输入文件拷贝到共享内存区,另外一次是从共享内存区拷贝到输出文件中.实际上,进程之间在共享内存时,并不总是读写少量数据后就解除映射,有新的通信时,再重新建立共享内存区域,而是保持共享区域,直到通信完毕为止;这样,数据内容一直保存在共享内存中,并没有写回文件.共享内存中的数据内容往往是在解除映射时才写回文件的.因此,采用共享内存的通信方式是非常有效的;
的2.2.x以后的内核版本支持多种共享内存方式,比如:内存映射mmap、POSIX共享内存、System
V共享内存;
一、内核怎样保证各个进程寻址到同一块共享内存区域的内存页面:
cache及swap cache中页面的区分:一个被访问文件的物理页面都驻留在page cache或swap cache中,一个页面的所有信息由struct
page来描述,struct page结构中有一个字段为指针mapping,它指向一个struct address_space类型的结构.page
cache或swap cache中的所有页面就是根据struct address_space结构以及一个偏移量来区分的;
2、文件与struct
address_space结构的对应:一个具体的文件被打开之后,内核会在内存中为之建立一个struct
inode结构类型的节点,其中的i_mapping字段指向一个struct address_space类型的结构,这样,一个文件就对应一个struct
address_space结构,一个struct address_space和一个偏移量就可以确定一个page cache或swap
cache中的一个页面.因此,当要寻址某个数据的时候,很容易根据给定的文件及数据在文件内的偏移量范围之内找到对应的页面;
3、进程调用mmap()时,只是在进程的地址空间中新增加了一块相应大小的缓冲区,并设置另外相应的访问标识,但是并没有建立进程地址空间到物理页面的映射.所以,第一次访问该空间时,会引发一个缺页异常;
4、对于共享内存的情况,缺页异常处理程序首先在swap
cache中寻找目标页(符合struct
address_space以及偏移量的物理页),如果找到,则直接返回该页的地址;如果没找到,则判断该页是否在交换分区(swap
area)中存在,如果存在,则执行一个换入操作;如果上述两种情况都不满足,则缺页处理程序将分配新的物理页,并把它插入到page
cache中.进程最终将更新进程页表;
注意:对于映射普通文件(非共享映射)的情况,缺页处理程序首先会在page
cache中根据struct
address_space和偏移量寻找相应页面.如果没找到,则说明文件数据还没有读入内存,处理程序会从磁盘读入相应的文件页面,并返回相应的页面地址,同时,进程页表也会被更新;
换句话说,对于共享内存来说,缺页处理程序是在swap
cache和swap area中寻找相应的页面,而对于非共享映射(映射普通文件)来说,则是在page
cache来寻找对应的页面;
5、所有进程在映射同一块共享内存区域时,情况都一样,在建立线性地址与物理地址之间的映射之后,不论进程各自返回的地址如何,实际上访问的必然都是同一块共享内存区域对应的物理页面.
注意:一块共享区域可以看作是特殊文件系统shm中的一个特殊文件,shm的安装点在交换分区上;
二、内存映射:
实际上,内存映射机制并不是完全为了共享内存的目的而设计的,它本身提供了不同于一般普通文件的访问方式,进程可以像访问内存一样对普通文件进程操作.而POSIX或System
V共享内存IPC则纯粹是用于共享内存的目的.当然内存映射实现共享内存,也是内存映射的应用之一;
内存映射机制的用途:A、以访问内存的方式读写文件;
B、实现共享内存;
三、mmap()系统调用:
mmap()系统调用使得进程之间通过映射同一个普通文件而实现共享内存的目的.普通文件被映射到进程的地址空间之后,进程就可以像访问普通内存一样对文件进行访问,不必再调用read()、write()等系统调用操作.
mmap()系统调用介绍:
&& void* mmap(void* addr, size_t len, int prot, int flags, int
fd, off_t offset);
&& 该函数在进程的地址空间与文件对象或共享内存对象之间建立一种映射关系;
:该参数指定文件应该被映射到进程地址空间的起始地址,一般被指定为一个空指针,此时,程序把选择起始地址的任务留给内核来完成了.这个地址是进程地址空间中需要映射到文件中的内存区域的首地址;也就是说,在进程地址空间中用于文件映射的内存区域的首地址;
:文件被映射到调用进程的地址空间中的字节数,它从被映射文件开头offset个字节处开始算起,取len个字节,把文件中的这len个字节的文件空间映射到进程的地址空间中;
:指定文件被映射到内存中之后的访问权限.可取的值有:PORT_READ(可读)、PORT_WRITE(可写)、PORT_EXEC(可执行)、PORT_NONE(不可访问);
:映射标记;取值如下:MAP_SHARED、MAP_PRIVATE、MAP_FIXED,其中,MAP_SHARED和MAP_PRIVATE必选其一,而MAP_FIXED则不推荐使用;
:即将被映射到进程地址空间中的文件的描述符.一般由系统调用open()返回;同时,fd可以指定为-1,此时,必须指定flags参数中的MAP_ANON,表明进程的是匿名映射(不涉及具体的文件名,避免了文件的创建及打开,很显然,只能用于具有亲属关系的进程之间的通信).
offset:从文件开头计算offset个字节处开始映射;也就是,文件中需要被映射的文件内容的起始地址,这个起始地址的计算是以文件开头为参照的;这个参数一般取值为0,表示从文件开头处开始映射;
返回值:文件最终映射到进程地址空间中的起始地址;进程可直接以该地址为有效的起始地址进行操作;也就是文件中开始映射的起始字节点到进程中对应映射内存区的起始地址点处的一个映射;换句话就是说,在进程地址空间中用于文件映射的内存区域的首地址;
四、系统调用mmap()用于共享内存的两种方式:
A、使用普通文件提供的内存映射/共享内存:适用于任何进程之间;此时,需要使用系统调用open()事先打开或创建一个文件,然后再调用mmap():
fd = open(filename, flag, mode);
&&&&& ......
&&&&& ptr = mmap(NULL, len,
PORT_READ|PORT_WRITE, MAP_SHARED, fd, 0);
使用特殊文件提供匿名内存映射:适用于具有亲属关系的进程之间;由于父子进程之间的这种特殊的父子关系,在父进程中先调用mmap(),然后调用fork(),那么,在调用fork()之后,子进程继承了父进程的所有资源,当然也包括匿名映射后的地址空间和mmap()返回的地址,这样,父子进程就可以通过映射区域进行通信了;
注意:这里不是一般的继承关系.一般来说,子进程单独维护从父进程继承下来的一些变量,而mmap()返回的地址却是由父子进程共同维护的;对于具有亲属关系的进程之间实现共享内存的最好方式应该是采用匿名映射的方式.此时,不必指定具体的条件,只要设置相应的标志即可.
五、解除内存映射关系:
当进程间通信结束时,需要解除文件页面空间到进程地址空间之间的映射关系;也就说,进程通信结束时,需要把挂载到进程地址空间上的文件卸载下来;这个任务由系统调用munmap();
int munmap(void* addr, size_t len);
&& 该系统调用用于在进程地址空间中结束映射关系;
addr:是调用mmap()返回的进程地址空间中用于文件映射的内存区域的首地址;
&& len :进程地址空间中映射区域的大小,单位:字节;
当映射关系解除之后,对原来映射地址的访问将导致段错误发生;
&& 返回值: -1:失败; 0:成功;
六、内存映射的同步:
一般来说,进程在映射空间中对共享内容的修改并不会直接写回到磁盘文件中,往往在调用munmap()之后才会同步输出到磁盘文件中.那么,在程序运行过程中,在调用munmap()之前,可以通过调用msync()来实现磁盘上文件内容与共享内存区中的内容与一致;或者是把对共享内存区的修改同步输出到磁盘文件中;
1、最终被映射文件内容的长度不会超过文件本身的初始大小,即:内存映射操作不能改变文件的大小;
2、可以用于进程间通信的得有效地址空间大小大体上受限于被映射文件的大小,但是并不完全受限于文件大小.
在Linux中,内存的保护机制是以内存页为单位的,即使被映射的文件只有一个字节的大小,内核也会为这个文件的映射分配一个页面大小的内存空间.当被映射文件的大小小于一个页面大小时,进程可以对mmap()返回地址开始的一个页面大小进行访问,而不会出错;但是,如果对一个页面之外的地址空间进行访问,则导致错误发生.因此,可用于进程间通信的有效地址空间的大小不会超过被映射文件大小与一个页面大小的和;
3、文件一旦被映射之后,调用mmap()的进程对返回地址空间的访问就是对某一内存区域进行访问,暂时脱离了磁盘上文件的影响.所有对mmap()返回地址空间的操作只在内存范围内有意义,只有在调用了munmap()或msync()之后,才会把映射内存中的相应内容写回到磁盘文件中,所写内容的大小仍然不会超过被映射文件的大小;
七、对mmap()返回的地址空间的访问:
Linux采用的是页式管理机制.对于用mmap()映射普通文件来说,进程会在自己的地址空间中新增加一块空间,空间的大小由mmap()的len参数指定,注意:进程并不一定能够对新增加的全部空间都进行有效的访问.进程能够访问的有效地址空间的大小取决于文件中被映射部分的大小.简单地说,能够容纳文件中被映射部分大小的最少页面个数决定了进程从mmap()返回的地址开始,能够访问的有效地址空间大小.超过这个空间大小,内核会根据超过的严重程度返回发送不同的信号给进程.
注意:决定进程能够访问的有效地址空间大小的因素是文件中被映射的部分,而不是整个文件;另外,如果指定了文件的偏移部分,一定要注意为页面大小的整数倍;
总之:采用内存映射机制mmap()来实现进程间通信是很方便的,在应用层上,调用接口非常简单,内部实现机制涉及到了Linux的存储管理以及文件系统等方面的内用;
(责任编辑:落鹤生)
本站文章除注明转载外,均为本站原创或编译欢迎任何形式的转载,但请务必注明出处,尊重他人劳动,同学习共成长。转载请注明:文章转载自:罗索实验室 []
本文出处:网络博客 作者:秩名
------分隔线----------------------------
将本文分享到微信
相信大家看过《简明Vim教程》也玩了《Vim大冒险》 的游戏了,相...
最后问题确定为, 对一个对端已经关闭的socket调用两次write, 第二...
linux多线程设计是指基于Linux操作系统下的多线程设计,包括多任...
Linux kernel提供了四个调度器供用户选择。他们是noop,cfq,deadline,...
这个测试程序是根据vivi驱动hard code的, 并不一定适合其他的c...
'ld'把一定量的目标文件跟档案文件连接起来,并重定位它们的数...共享内存(上)_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
共享内存(上)
&&共享内存
你可能喜欢}

我要回帖

更多关于 进程间共享内存 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信