【原創】Linux select/poll機制原理分析
- 2020 年 4 月 2 日
- 筆記
前言
Read the fucking source code!
–By 魯迅A picture is worth a thousand words.
–By 高爾基
1. 概述
Linux系統在訪問設備的時候,存在以下幾種IO模型:
Blocking IO Model,阻塞IO模型
;Nonblocking I/O Model,非阻塞IO模型
;I/O Multiplexing Model,IO多路復用模型
;Signal Driven I/O Model,訊號驅動IO模型
;Asynchronous I/O Model,非同步IO模型
;
今天我們來分析下IO多路復用機制,在Linux中是通過select/poll/epoll
機制來實現的。
先看一下阻塞IO模型與非阻塞IO模型的特點:
- 阻塞IO模型:在IO訪問的時候,如果條件沒有滿足,會將當前任務切換出去,等到條件滿足時再切換回來。
- 缺點:阻塞IO操作,會讓處於同一個執行緒的執行邏輯都在阻塞期間無法執行,這往往意味著需要創建單獨的執行緒來交互。
- 非阻塞IO模型:在IO訪問的時候,如果條件沒有滿足,直接返回,不會block該任務的後續操作。
- 缺點:非阻塞IO需要用戶一直輪詢操作,輪詢可能會來帶CPU的佔用問題。
對單個設備IO操作時,問題並不嚴重,如果有多個設備呢?比如,在伺服器中,監聽多個Client的收發處理,這時候IO多路復用就顯得尤為重要了,來張圖:
如果這個圖,讓你有點迷惑,那就像個男人一樣,man
一下select/poll
函數吧:
-
select
:
-
poll
簡單來說,select/poll
能監聽多個設備的文件描述符,只要有任何一個設備滿足條件,select/poll
就會返回,否則將進行睡眠等待。
看起來,select/poll
像是一個管家了,統一負責來監聽處理了。
已經迫不及待來看看原理了,由於底層的機制大體差不多,我將選擇select
來做進一步分析。
2. 原理
2.1 select系統調用
從select
的系統調用開始:
select
系統調用,最終的核心邏輯是在do_select
函數中處理的,參考fs/select.c
文件;do_select
函數中,有幾個關鍵的操作:- 初始化
poll_wqueues
結構,包括幾個關鍵函數指針的初始化,用於驅動中進行回調處理; - 循環遍歷監測的文件描述符,並且調用
f_op->poll()
函數,如果有監測條件滿足,則會跳出循環; - 在監測的文件描述符都不滿足條件時,
poll_schedule_timeout
讓當前進程進行睡眠,超時喚醒,或者被所屬的等待隊列喚醒;
- 初始化
do_select
函數的循環退出條件有三個:- 檢測的文件描述符滿足條件;
- 超時;
- 有訊號要處理;
- 在設備驅動程式中實現的
poll()
函數,會在do_select()
中被調用,而驅動中的poll()
函數,需要調用poll_wait()
函數,poll_wait
函數本身很簡單,就是去回調函數p->_qproc()
,這個回調函數正是poll_initwait()
函數中初始化的__pollwait()
;
所以,來看看__pollwait()
函數嘍。
2.2 __pollwait
- 驅動中的
poll_wait
函數回調__pollwait
,這個函數完成的工作是向struct poll_wqueue
結構中添加一條poll_table_entry
; poll_table_entry
中包含了等待隊列的相關數據結構;- 對等待隊列的相關數據結構進行初始化,包括設置等待隊列喚醒時的回調函數指針,設置成
pollwake
; - 將任務添加到驅動程式中的等待隊列中,最終驅動可以通過
wake_up_interruptile
等介面來喚醒處理;
這一頓操作,其實就是驅動向select
維護的struct poll_wqueue
中註冊,並將調用select
的任務添加到驅動的等待隊列中,以便在合適的時機進行喚醒。所以,本質上來說,這是基於等待隊列的機制來實現的。
是不是還有點抽象,來看看數據結構的組織關係吧。
2.3 數據結構關係
- 調用
select
系統調用的進程/執行緒,會維護一個struct poll_wqueues
結構,其中兩個關鍵欄位:pll_table
:該結構體中的函數指針_qproc
指向__pollwait
函數;struct poll_table_entry[]
:存放不同設備的poll_table_entry
,這些條目的增加是在驅動調用poll_wait->__pollwait()
時進行初始化並完成添加的;
2.4 驅動編寫啟示
如果驅動中要支援select
的介面調用,那麼需要做哪些事情呢?
如果理解了上文中的內容,你會毫不猶豫的大聲說出以下幾條:
- 定義一個等待隊列頭
wait_queue_head_t
,用於收留等待隊列任務; struct file_operations
結構體中的poll
函數需要實現,比如xxx_poll()
;xxx_poll()
函數中,當然不要忘了poll_wait
函數的調用了,此外,該函數的返回值mask
需要注意是在條件滿足時對應的值,比如EPOLLIN/EPOLL/EPOLLERR
等,這個返回值是在do_select()
函數中會去判斷處理的;- 條件滿足的時候,
wake_up_interruptible
喚醒任務,當然也可以使用wake_up
,區別是:wake_up_interruptible
只能喚醒處於TASK_INTERRUPTIBLE
狀態的任務,而wake_up
能喚醒處於TASK_INTERRUPTIBLE
和TASK_UNINTERRUPTIBLE
狀態的任務;
2.5 select/poll
的差異
select
與poll
本質上基本類似,其中select
是由BSD UNIX
引入,poll
由SystemV
引入;select
與poll
需要輪詢文件描述符集合,並在用戶態和內核態之間進行拷貝,在文件描述符很多的情況下開銷會比較大,select
默認支援的文件描述符數量是1024;- Linux提供了
epoll
機制,改進了select
與poll
在效率與資源上的缺點,未深入了解;
3. 示例程式碼
3.1 內核驅動
示例程式碼中的邏輯:
- 驅動維護一個count值,當count值大於0時,表明條件滿足,poll返回正常的mask值;
- poll函數每執行一次,count值就減去一次;
- count的值可以由用戶通過
ioctl
來進行設置;
#include <linux/init.h> #include <linux/module.h> #include <linux/poll.h> #include <linux/wait.h> #include <linux/cdev.h> #include <linux/mutex.h> #include <linux/slab.h> #include <asm/ioctl.h> #define POLL_DEV_NAME "poll" #define POLL_MAGIC 'P' #define POLL_SET_COUNT (_IOW(POLL_MAGIC, 0, unsigned int)) struct poll_dev { struct cdev cdev; struct class *class; struct device *device; wait_queue_head_t wq_head; struct mutex poll_mutex; unsigned int count; dev_t devno; }; struct poll_dev *g_poll_dev = NULL; static int poll_open(struct inode *inode, struct file *filp) { filp->private_data = g_poll_dev; return 0; } static int poll_close(struct inode *inode, struct file *filp) { return 0; } static unsigned int poll_poll(struct file *filp, struct poll_table_struct *wait) { unsigned int mask = 0; struct poll_dev *dev = filp->private_data; mutex_lock(&dev->poll_mutex); poll_wait(filp, &dev->wq_head, wait); if (dev->count > 0) { mask |= POLLIN | POLLRDNORM; /* decrease each time */ dev->count--; } mutex_unlock(&dev->poll_mutex); return mask; } static long poll_ioctl(struct file *filp, unsigned int cmd, unsigned long arg) { struct poll_dev *dev = filp->private_data; unsigned int cnt; switch (cmd) { case POLL_SET_COUNT: mutex_lock(&dev->poll_mutex); if (copy_from_user(&cnt, (void __user *)arg, _IOC_SIZE(cmd))) { pr_err("copy_from_user fail:%dn", __LINE__); return -EFAULT; } if (dev->count == 0) { wake_up_interruptible(&dev->wq_head); } /* update count */ dev->count += cnt; mutex_unlock(&dev->poll_mutex); break; default: return -EINVAL; } return 0; } static struct file_operations poll_fops = { .owner = THIS_MODULE, .open = poll_open, .release = poll_close, .poll = poll_poll, .unlocked_ioctl = poll_ioctl, .compat_ioctl = poll_ioctl, }; static int __init poll_init(void) { int ret; if (g_poll_dev == NULL) { g_poll_dev = (struct poll_dev *)kzalloc(sizeof(struct poll_dev), GFP_KERNEL); if (g_poll_dev == NULL) { pr_err("struct poll_dev allocate failn"); return -1; } } /* allocate device number */ ret = alloc_chrdev_region(&g_poll_dev->devno, 0, 1, POLL_DEV_NAME); if (ret < 0) { pr_err("alloc_chrdev_region fail:%dn", ret); goto alloc_chrdev_err; } /* set char-device */ cdev_init(&g_poll_dev->cdev, &poll_fops); g_poll_dev->cdev.owner = THIS_MODULE; ret = cdev_add(&g_poll_dev->cdev, g_poll_dev->devno, 1); if (ret < 0) { pr_err("cdev_add fail:%dn", ret); goto cdev_add_err; } /* create device */ g_poll_dev->class = class_create(THIS_MODULE, POLL_DEV_NAME); if (IS_ERR(g_poll_dev->class)) { pr_err("class_create failn"); goto class_create_err; } g_poll_dev->device = device_create(g_poll_dev->class, NULL, g_poll_dev->devno, NULL, POLL_DEV_NAME); if (IS_ERR(g_poll_dev->device)) { pr_err("device_create failn"); goto device_create_err; } mutex_init(&g_poll_dev->poll_mutex); init_waitqueue_head(&g_poll_dev->wq_head); return 0; device_create_err: class_destroy(g_poll_dev->class); class_create_err: cdev_del(&g_poll_dev->cdev); cdev_add_err: unregister_chrdev_region(g_poll_dev->devno, 1); alloc_chrdev_err: kfree(g_poll_dev); g_poll_dev = NULL; return -1; } static void __exit poll_exit(void) { cdev_del(&g_poll_dev->cdev); device_destroy(g_poll_dev->class, g_poll_dev->devno); unregister_chrdev_region(g_poll_dev->devno, 1); class_destroy(g_poll_dev->class); kfree(g_poll_dev); g_poll_dev = NULL; } module_init(poll_init); module_exit(poll_exit); MODULE_DESCRIPTION("select/poll test"); MODULE_AUTHOR("LoyenWang"); MODULE_LICENSE("GPL");
3.2 測試程式碼
測試程式碼邏輯:
- 創建一個設值執行緒,用於每隔2秒來設置一次count值;
- 主執行緒調用
select
函數監聽,當設值執行緒設置了count值後,select便會返回;
#include <stdio.h> #include <string.h> #include <fcntl.h> #include <pthread.h> #include <errno.h> #include <unistd.h> #include <sys/ioctl.h> #include <sys/stat.h> #include <sys/types.h> #include <sys/time.h> static void *set_count_thread(void *arg) { int fd = *(int *)arg; unsigned int count_value = 1; int loop_cnt = 20; int ret; while (loop_cnt--) { ret = ioctl(fd, NOTIFY_SET_COUNT, &count_value); if (ret < 0) { printf("ioctl set count value fail:%sn", strerror(errno)); return NULL; } sleep(1); } return NULL; } int main(void) { int fd; int ret; pthread_t setcnt_tid; int loop_cnt = 20; /* for select use */ fd_set rfds; struct timeval tv; fd = open("/dev/poll", O_RDWR); if (fd < 0) { printf("/dev/poll open failed: %sn", strerror(errno)); return -1; } /* wait up to five seconds */ tv.tv_sec = 5; tv.tv_usec = 0; ret = pthread_create(&setcnt_tid, NULL, set_count_thread, &fd); if (ret < 0) { printf("set_count_thread create fail: %dn", ret); return -1; } while (loop_cnt--) { FD_ZERO(&rfds); FD_SET(fd, &rfds); ret = select(fd + 1, &rfds, NULL, NULL, &tv); //ret = select(fd + 1, &rfds, NULL, NULL, NULL); if (ret == -1) { perror("select()"); break; } else if (ret) printf("Data is available now.n"); else { printf("No data within five seconds.n"); } } ret = pthread_join(setcnt_tid, NULL); if (ret < 0) { printf("set_count_thread join fail.n"); return -1; } close(fd); return 0; }