面试相关内容03

面试相关内容03 杂项

Posted by ZBX on May 8, 2020

SYN Flood

要么就是攻击者有很多“肉鸡”,要么就是伪造源IP的SYN报文。最后,通过统计源IP报文数量发现,每个源IP只发了一个SYN报文。因此可以确定是属于伪造源IP的SYN Flood攻击。

  • 首包丢弃
    • 真实的客户端访问,在一定的时间内如果没有收到服务器的回复,将会再次发送SYN报文,但攻击机制通常不会再重发。所以丢弃首次SYN报文后,就相当于过滤掉了虚假的客户端访问,进而防御了伪造源IP进行的SYN Flood攻击,保障了服务器的正常运行。

虚拟内存优势

1、程序可以使用一系列相邻的虚拟地址来访问物理内存中不相邻的大内存缓冲区。

2、程序可以使用一系列虚拟地址来访问大于可用物理内存的内存缓冲。当物理内存的供应量变小时,内存管理器会将物理内存页保存到磁盘文件。数据或代码页会根据需要在物理内存与磁盘之间移动。

3、不同进程使用的虚拟地址彼此隔离,一个进程的代码无法更改正在另一个进程或操作系统使用的物理内存。

TCP校验和

伪首部(pseudo header),通常指TCP伪首部和UDP伪首部,TCP的校验和是必需的,而UDP的校验和是可选的 TCP校验是需要校验包头和数据的

//共12字节
typedef struct
{
    unsigned long saddr; //源IP地址
    unsigned long daddr; //目的IP地址
    unsigned char mbz; // mbz = must be zero, 用于填充对齐
    unsigned char protocal; //8位协议号
    unsigned short tcpl; //TCP包长度
}psdheader_t;

伪首部是一个虚拟的数据结构,仅仅是为计算校验和接收方计算检验和错误,IP就丢弃收到的数据报

如果总长度为奇数个字节,则在最后增添一位都为0的字节 首先,把TCP报头中的校验和字段置为0 其次,用反码相加法累加所有的16位字 最后,对计算结果取反

TLAB

TLAB的全称是Thread Local Allocation Buffer,即线程本地分配缓存区,这是一个线程专用的内存分配区域。

如果设置了虚拟机参数 -XX:UseTLAB,在线程初始化时,同时也会申请一块指定大小的内存,只给当前线程使用,这样每个线程都单独拥有一个空间,如果需要分配内存,就在自己的空间上分配,这样就不存在竞争的情况,可以大大提升分配效率。TLAB只是让每个线程有私有的分配指针,但底下存对象的内存空间还是给所有线程访问的,只是其它线程无法在这个区域分配而已。

缺点

因为TLAB通常很小,所以放不下大对象。

epoll

epoll_ctl() 用于向内核注册新的描述符或者是改变某个文件描述符的状态。已注册的描述符在内核中会被维护在一棵红黑树上,通过回调函数内核会将 I/O 准备好的描述符加入到一个链表中管理,进程调用 epoll_wait() 便可以得到事件完成的描述符。

  1. LT 模式 当 epoll_wait() 检测到描述符事件到达时,将此事件通知进程,进程可以不立即处理该事件,下次调用 epoll_wait() 会再次通知进程。是默认的一种模式,并且同时支持 Blocking 和 No-Blocking。

  2. ET 模式 和 LT 模式不同的是,通知之后进程必须立即处理事件,下次再调用 epoll_wait() 时不会再得到事件到达的通知。

很大程度上减少了 epoll 事件被重复触发的次数,因此效率要比 LT 模式高。只支持 No-Blocking,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。

创建对象有以下几个要点:

类加载机制检查:JVM首先检查一个new指令的参数是否能在常量池中定位到一个符号引用,并且检查该符号引用代表的类是否已被加载、解析和初始化过 分配内存:把一块儿确定大小的内存从Java堆中划分出来 初始化零值:对象的实例字段不需要赋初始值也可以直接使用其默认零值,就是这里起得作用 设置对象头:存储对象自身的运行时数据,类型指针 执行:为对象的字段赋值

Nginx 高并发原理

  1. 多进程

    1. Nginx 在启动后,会有一个 master 进程和多个相互独立的 worker 进程。
    2. 接收来自外界的信号,向各worker进程发送信号,每个进程都有可能来处理这个连接。
    3. master 进程能监控 worker 进程的运行状态,当 worker 进程退出后(异常情况下),会自动启动新的 worker 进程。
    #直接看下配置:
       
    user nginx ;                    #用户
       
    worker_processes 8;     #工作进程,根据硬件调整,大于等于cpu核数
       
    error_log logs/nginx_error.log crit;     #错误日志
       
    pid logs/nginx.pid;     #pid放置的位置
       
    worker_rlimit_nofile 204800;
       
    #指定进程可以打开的最大描述符
       
    这个指令是指当一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(ulimit -n)与nginx进程数相除,但是nginx分配请求并不是那么均匀,所以最好与ulimit -n 的值保持一致。
       
         现在在linux 2.6内核下开启文件打开数为65535,worker_rlimit_nofile就相应应该填写65535。
       
         这是因为nginx调度时分配请求到进程并不是那么的均衡,所以假如填写10240,总并发量达到3-4万时就有进程可能超过10240了,这时会返回502错误。
       
    events
       
    {
       
    use epoll;     #使用epoll的I/O 模型
       
    补充说明:
       
    与apache相类,nginx针对不同的操作系统,有不同的事件模型
       
    A)标准事件模型
       
         Select、poll属于标准事件模型,如果当前系统不存在更有效的方法,nginx会选择select或poll
       
    B)高效事件模型
       
         Kqueue:使用于FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X.使用双处理器的MacOS X系统使用kqueue可能会造成内核崩溃。
       
         Epoll:使用于Linux内核2.6版本及以后的系统。
       
         /dev/poll:使用于Solaris 7 11/99+, HP/UX 11.22+ (eventport), IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+。
       
         Eventport:使用于Solaris 10. 为了防止出现内核崩溃的问题, 有必要安装安全补丁
       
        
       
    worker_connections 204800;
       
    #工作进程的最大连接数量,根据硬件调整,和前面工作进程配合起来用,尽量大,但是别把cpu跑到100%就行
       
    每个进程允许的最多连接数, 理论上每台nginx服务器的最大连接数为worker_processes*worker_connections
       
    keepalive_timeout 60;          #keepalive超时时间。
       
    client_header_buffer_size 4k;
       
    客户端请求头部的缓冲区大小,这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。
       
    分页大小可以用命令getconf PAGESIZE 取得。
       
    [root@web001 ~]# getconf PAGESIZE
       
    4096
       
    但也有client_header_buffer_size超过4k的情况,但是client_header_buffer_size该值必须设置为“系统分页大小”的整倍数。
       
        
       
    open_file_cache max=65535 inactive=60s;
       
    这个将为打开文件指定缓存,默认是没有启用的,max指定缓存数量,建议和打开文件数一致,inactive是指经过多长时间文件没被请求后删除缓存。
       
        
       
    open_file_cache_valid 80s;     这个是指多长时间检查一次缓存的有效信息。
       
    open_file_cache_min_uses 1;
       
    open_file_cache指令中的inactive参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在inactive时间内一次没被使用,它将被移除。
       
    }
       
    #设定http服务器,利用它的反向代理功能提供负载均衡支持
       
    http
       
    {
       
    include /etc/nginx/mime.types;
       
    #设定mime类型, 类型由mime.type文件定义
       
    default_type /etc/nginx/application/octet-stream;
       
    log_format main '$host $status [$time_local] $remote_addr [$time_local] $request_uri '
       
                               '"$http_referer" "$http_user_agent" "$http_x_forwarded_for" '
       
                               '$bytes_sent $request_time $sent_http_x_cache_hit';
       
        
       
    log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location';
       
    $remote_addr与$http_x_forwarded_for用以记录客户端的ip地址;
       
    $remote_user:用来记录客户端用户名称;
       
    $time_local: 用来记录访问时间与时区;
       
    $request: 用来记录请求的url与http协议;
       
    $status: 用来记录请求状态;成功是200,
       
    $body_bytes_s ent :记录发送给客户端文件主体内容大小;
       
    $http_referer:用来记录从那个页面链接访问过来的;
       
    $http_user_agent:记录客户毒啊浏览器的相关信息;
       
    通常web服务器放在反向代理的后面,这样就不能获取到客户的IP地址了,通过$remote_add拿到的IP地址是反向代理服务器的iP地址。反向代理服务器在转发请求的http头信息中,可以增加x_forwarded_for信息,用以记录原有客户端的IP地址和原来客户端的请求的服务器地址;
       
    access_log /dev/null;
       
    #用了log_format指令设置了日志格式之后,需要用access_log指令指定日志文件的存放路径;
       
    # access_log /usr/local/nginx/logs/access_log main;
       
    server_names_hash_bucket_size 128;
       
    #保存服务器名字的hash表是由指令server_names_hash_max_size 和server_names_hash_bucket_size所控制的。参数hash bucket size总是等于hash表的大小,并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找hash表键值成为可能。如果hash bucket size等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为2。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。因此,如果Nginx给出需要增大hash max size 或 hash bucket size的提示,那么首要的是增大前一个参数的大小.
       
        
       
    client_header_buffer_size 4k;
       
    客户端请求头部的缓冲区大小,这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过1k,不过由于一般系统分页都要大于1k,所以这里设置为分页大小。分页大小可以用命令getconf PAGESIZE取得。
       
        
       
    large_client_header_buffers 8 128k;
       
    客户请求头缓冲大小
    nginx默认会用client_header_buffer_size这个buffer来读取header值,如果
       
    header过大,它会使用large_client_header_buffers来读取
    如果设置过小HTTP头/Cookie过大 会报400 错误nginx 400 bad request
    求行如果超过buffer,就会报HTTP 414错误(URI Too Long)
    nginx接受最长的HTTP头部大小必须比其中一个buffer大,否则就会报400的
       
    HTTP错误(Bad Request)。
       
    open_file_cache max 102400
       
    使用字段:http, server, location 这个指令指定缓存是否启用,如果启用,将记录文件以下信息: ·打开的文件描述符,大小信息和修改时间. ·存在的目录信息. ·在搜索文件过程中的错误信息 --没有这个文件,无法正确读取,参考open_file_cache_errors指令选项:
    ·max -指定缓存的最大数目,如果缓存溢出,最长使用过的文件(LRU)将被移除
    例: open_file_cache max=1000 inactive=20s; open_file_cache_valid 30s; open_file_cache_min_uses 2; open_file_cache_errors on;
       
    open_file_cache_errors
    语法:open_file_cache_errors on | off 默认值:open_file_cache_errors off 使用字段:http, server, location 这个指令指定是否在搜索一个文件是记录cache错误.
       
    open_file_cache_min_uses
       
    语法:open_file_cache_min_uses number 默认值:open_file_cache_min_uses 1 使用字段:http, server, location 这个指令指定了在open_file_cache指令无效的参数中一定的时间范围内可以使用的最小文件数,如 果使用更大的值,文件描述符在cache中总是打开状态.
    open_file_cache_valid
       
    语法:open_file_cache_valid time 默认值:open_file_cache_valid 60 使用字段:http, server, location 这个指令指定了何时需要检查open_file_cache中缓存项目的有效信息.
       
        
       
    client_max_body_size 300m;    #设定通过nginx上传文件的大小
       
    sendfile on;
       
    #sendfile指令指定 nginx 是否调用sendfile 函数(zero copy 方式)来输出文件,
    对于普通应用,必须设为on。
    如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络IO处理速度,降低系统uptime。
       
    tcp_nopush on;
       
    此选项允许或禁止使用socke的TCP_CORK的选项,此选项仅在使用sendfile的时候使用
       
        
       
    proxy_connect_timeout 90; 
    #后端服务器连接的超时时间_发起握手等候响应超时时间
       
    proxy_read_timeout 180;
       
    #连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间)
       
    proxy_send_timeout 180;
       
    #后端服务器数据回传时间_就是在规定时间之内后端服务器必须传完所有的数据
       
    proxy_buffer_size 256k;
       
    #设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令proxy_buffers中指定的一个缓冲区的大小,不过可以将其设置为更小
       
    proxy_buffers 4 256k;
       
    #设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是4k或者8k
       
    proxy_busy_buffers_size 256k;
       
        
       
    proxy_temp_file_write_size 256k;
       
    #设置在写入proxy_temp_path时数据的大小,预防一个工作进程在传递文件时阻塞太长
       
    proxy_temp_path /data0/proxy_temp_dir;
       
    #proxy_temp_path和proxy_cache_path指定的路径必须在同一分区
    proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g;
    #设置内存缓存空间大小为200MB,1天没有被访问的内容自动清除,硬盘缓存空间大小为30GB。
        
       
    keepalive_timeout 120;
       
    keepalive超时时间。
       
    tcp_nodelay on;
       
    client_body_buffer_size 512k;
    如果把它设置为比较大的数值,例如256k,那么,无论使用firefox还是IE浏览器,来提交任意小于256k的图片,都很正常。如果注释该指令,使用默认的client_body_buffer_size设置,也就是操作系统页面大小的两倍,8k或者16k,问题就出现了。
    无论使用firefox4.0还是IE8.0,提交一个比较大,200k左右的图片,都返回500 Internal Server Error错误
       
    proxy_intercept_errors on;
       
    表示使nginx阻止HTTP应答代码为400或者更高的应答。
       
        
       
    #设定负载均衡的服务器列表
       
    upstream mysvr {
        #weigth参数表示权值,权值越高被分配到的几率越大
        server 192.168.8.1x:3128 weight=5;     #本机上的Squid开启3128端口
        server 192.168.8.2x:80  weight=1;
        server 192.168.8.3x:80  weight=6;
    }
       
    upstream mysvr2 {
        #weigth参数表示权值,权值越高被分配到的几率越大
       
        server 192.168.8.x:80  weight=1;
        server 192.168.8.x:80  weight=6;
    }
       
    upstream img_relay {
       
        server 127.0.0.1:8027;
       
        server 127.0.0.1:8028;
       
        server 127.0.0.1:8029;
       
        hash $request_uri;
       
    }
       
    nginx的upstream目前支持4种方式的分配
       
    1、轮询(默认)
       
         每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
       
    2、weight
    指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。
    例如:
    upstream bakend {
         server 192.168.0.14 weight=10;
         server 192.168.0.15 weight=10;
    }
       
    2、ip_hash
    每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
    例如:
    upstream bakend {
         ip_hash;
         server 192.168.0.14:88;
         server 192.168.0.15:80;
    }
       
    3、fair(第三方)
    按后端服务器的响应时间来分配请求,响应时间短的优先分配。
    upstream backend {
        server server1;
        server server2;
        fair;
    }
       
    4、url_hash(第三方)
       
    按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
       
    例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
       
    upstream backend {
        server squid1:3128;
        server squid2:3128;
        hash $request_uri;
        hash_method crc32;
    }
       
    tips:
       
    upstream bakend{    #定义负载均衡设备的Ip及设备状态
        ip_hash;
        server 127.0.0.1:9090 down;
        server 127.0.0.1:8080 weight=2;
        server 127.0.0.1:6060;
        server 127.0.0.1:7070 backup;
    }
    在需要使用负载均衡的server中增加
    proxy_pass http://bakend/;
       
    每个设备的状态设置为:
    1.down表示单前的server暂时不参与负载
    2.weight默认为1.weight越大,负载的权重就越大。
    3.max_fails:允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream模块定义的错误
    4.fail_timeout:max_fails次失败后,暂停的时间。
    5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。
       
    nginx支持同时设置多组的负载均衡,用来给不用的server来使用。
       
    client_body_in_file_only设置为On 可以讲client post过来的数据记录到文件中用来做debug
    client_body_temp_path设置记录文件的目录 可以设置最多3层目录
       
    location对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
       
        
       
    #配置虚拟机
       
    server
       
    {
       
    listen 80;                                   #配置监听端口
       
    server_name image.***.com;     #配置访问域名
       
    location ~* \.(mp3|exe)$ {          #对以“mp3或exe”结尾的地址进行负载均衡
       
    proxy_pass http://img_relay$request_uri;     #设置被代理服务器的端口或套接字,以及URL
       
    proxy_set_header Host $host;
       
    proxy_set_header X-Real-IP $remote_addr;
       
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       
    #以上三行,目的是将代理服务器收到的用户的信息传到真实服务器上
       
    }
       
    location /face {
       
    if ($http_user_agent ~* "xnp") {
       
        rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
       
    }
       
    proxy_pass http://img_relay$request_uri;
       
    proxy_set_header Host $host;
       
    proxy_set_header X-Real-IP $remote_addr;
       
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       
    error_page 404 502 = @fetch;
       
    }
       
    location @fetch {
       
    access_log /data/logs/face.log log404;
       
    #设定本服务器的访问日志
       
    rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
       
    }
       
        
       
    location /image {
       
    if ($http_user_agent ~* "xnp") {
       
        rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
       
    }
       
    proxy_pass http://img_relay$request_uri;
       
    proxy_set_header Host $host;
       
    proxy_set_header X-Real-IP $remote_addr;
       
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       
    error_page 404 502 = @fetch;
       
    }
       
    location @fetch {
       
        access_log /data/logs/image.log log404;
       
        rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
       
    }
       
    }
       
        
       
    server
       
    {
       
    listen 80;
       
    server_name *.***.com *.***.cn;
       
    location ~* \.(mp3|exe)$ {
       
        proxy_pass http://img_relay$request_uri;
       
        proxy_set_header Host $host;
       
        proxy_set_header X-Real-IP $remote_addr;
       
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       
    }
       
    location / {
       
    if ($http_user_agent ~* "xnp") {
       
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
       
    }
       
    proxy_pass http://img_relay$request_uri;
       
    proxy_set_header Host $host;
       
    proxy_set_header X-Real-IP $remote_addr;
       
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       
    #error_page 404 http://i1.***img.com/help/noimg.gif;
       
    error_page 404 502 = @fetch;
       
    }
       
    location @fetch {
       
        access_log /data/logs/baijiaqi.log log404;
       
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
       
    }
       
    #access_log off;
       
    }
       
        
       
    server
       
    {
       
    listen 80;
       
    server_name *.***img.com;
       
        
       
    location ~* \.(mp3|exe)$ {
       
    proxy_pass http://img_relay$request_uri;
       
    proxy_set_header Host $host;
       
    proxy_set_header X-Real-IP $remote_addr;
       
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       
    }
       
        
       
    location / {
       
    if ($http_user_agent ~* "xnp") {
       
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif;
       
    }
       
    proxy_pass http://img_relay$request_uri;
       
    proxy_set_header Host $host;
       
    proxy_set_header X-Real-IP $remote_addr;
       
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
       
    #error_page 404 http://i1.***img.com/help/noimg.gif;
       
    error_page 404 = @fetch;
       
    }
       
    #access_log off;
       
    location @fetch {
       
        access_log /data/logs/baijiaqi.log log404;
       
        rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
       
    }
       
    }
       
        
       
    server
       
    {
       
    listen 8080;
       
    server_name ngx-ha.***img.com;
       
    location / {
       
        stub_status on;
       
        access_log off;
       
    }
       
    }
       
    server {
       
    listen 80;
       
    server_name imgsrc1.***.net;
       
    root html;
       
    }
       
    server {
       
    listen 80;
       
    server_name ***.com w.***.com;
       
    # access_log /usr/local/nginx/logs/access_log main;
       
    location / {
       
        rewrite ^(.*)$ http://www.***.com/ ;
       
    }
       
    }
       
    server {
       
    listen 80;
       
    server_name *******.com w.*******.com;
       
    # access_log /usr/local/nginx/logs/access_log main;
       
    location / {
       
    rewrite ^(.*)$ http://www.*******.com/;
       
    }
       
    }
       
    server {
       
    listen 80;
       
    server_name ******.com;
       
    # access_log /usr/local/nginx/logs/access_log main;
       
    location / {
       
    rewrite ^(.*)$ http://www.******.com/;
       
    }
       
    }
       
    location /NginxStatus {
    stub_status on;
    access_log on;
    auth_basic "NginxStatus";
    auth_basic_user_file conf/htpasswd;
    }
       
    #设定查看Nginx状态的地址
       
    location ~ /\.ht {
        deny all;
    }
       
    #禁止访问.htxxx文件
       
    }
       
        
       
    注释:变量
       
    Ngx_http_core_module模块支持内置变量,他们的名字和apache的内置变量是一致的。
       
    首先是说明客户请求title中的行,例如$http_user_agent,$http_cookie等等。
       
    此外还有其它的一些变量
       
    $args此变量与请求行中的参数相等
       
    $content_length等于请求行的“Content_Length”的值。
       
    $content_type等同与请求头部的”Content_Type”的值
       
    $document_root等同于当前请求的root指令指定的值
       
    $document_uri与$uri一样
       
    $host与请求头部中“Host”行指定的值或是request到达的server的名字(没有Host行)一样
       
    $limit_rate允许限制的连接速率
       
    $request_method等同于request的method,通常是“GET”或“POST”
       
    $remote_addr客户端ip
       
    $remote_port客户端port
       
    $remote_user等同于用户名,由ngx_http_auth_basic_module认证
       
    $request_filename当前请求的文件的路径名,由root或alias和URI request组合而成
       
    $request_body_file
       
    $request_uri含有参数的完整的初始URI
       
    $query_string与$args一样
       
    $sheeme http模式(http,https)尽在要求是评估例如
       
    Rewrite ^(.+)$ $sheme://example.com$; Redirect;
       
    $server_protocol等同于request的协议,使用“HTTP/或“HTTP/
       
    $server_addr request到达的server的ip,一般获得此变量的值的目的是进行系统调用。为了避免系统调用,有必要在listen指令中指明ip,并使用bind参数。
       
    $server_name请求到达的服务器名
       
    $server_port请求到达的服务器的端口号
       
    $uri等同于当前request中的URI,可不同于初始值,例如内部重定向时或使用index
    
  2. IO多路复用

Kafka为啥这么高吞吐

  1. Partion 模型带来的高吞吐
    • Topic 下的 Partion 概念,可以横向扩展,部署到多台服务器上。故此不论网络 I/O 还是服务器的本地 I/O 都能扩展,特别是针对消费端需要高 CPU 计算的场景,通过增加 Partion 数量和对应 Consumer Group 中 Consumer 的数量,来提升系统的吞吐量。
  2. 磁盘顺序读写
    • Producer 生产消息是不断追加到磁盘文件的,Consumer 消费消息也是从磁盘顺序读取的,都充分利用到了磁盘的顺序读写性能。
  3. Page Cache
  4. 零拷贝技术
  5. 批量化处理

Websocket

首先Websocket是基于HTTP协议的,或者说借用了HTTP的协议来完成一部分握手。

但是Websocket只需要一次HTTP握手,所以说整个通讯过程是建立在一次连接/状态中,也就避免了HTTP的非状态性,服务端会一直知道你的信息,

MySQL主从延迟

  1. 分库,将一个主库拆分为4个主库,每个主库的写并发就500/s,此时主从延迟可以忽略不计
  2. 打开mysql支持的并行复制,多个库并行复制,如果说某个库的写入并发就是特别高,单库写并发达到了2000/s,并行复制还是没意义。
  3. 重写代码,插入数据之后,直接就更新,不要查询
  4. 如果确实是存在必须先插入,立马要求就查询到,然后立马就要反过来执行一些操作,对这个查询设置直连主库。不推荐。

drop、truncate和delete的区别

(1)DELETE语句执行删除的过程是每次从表中删除一行,并且同时将该行的删除操作作为事务记录在日志中保存以便进行进行回滚操作。

TRUNCATE TABLE 则一次性地从表中删除所有的数据并不把单独的删除操作记录记入日志保存,删除行是不能恢复的。并且在删除的过程中不会激活与表有关的删除触发器。执行速度快。

(2)表和索引所占空间。

当表被TRUNCATE 后,这个表和索引所占用的空间会恢复到初始大小,

DELETE操作不会减少表或索引所占用的空间。

drop语句将表所占用的空间全释放掉。

(3)一般而言,drop > truncate > delete

(4)应用范围。

TRUNCATE 只能对TABLE; DELETE可以是table和view

(5)TRUNCATE 和DELETE只删除数据, DROP则删除整个表(结构和数据)。

kill

命令格式: kill -Signal pid

pid是进程号,可以用 ps 命令查出, signal是发送给进程的信号。

默认参数下,kill 发送SIGTERM(15)信号给进程,告诉进程,你需要被关闭,请自行停止运行并退出。 kill -9 发送SIGKILL信号给进程,告诉进程,你被终结了,请立刻退出。

struct 区别 在C 和C++ 中

C语言中:Struct是用户自定义数据类型(UDT)。

C++语言中:Struct是抽象数据类型(ADT),支持成员函数的定义。

在C++中,struct的成员的默认访问说明符为public,class为private。

c中的struct是没有权限设置的。

C++中struct增加了访问权限,且可以和类一样有成员函数。

C++中的struct等同于class,只是class默认成员权限是private,而struct默认成员权限是public。

国密算法

国密即国家密码局认定的国产密码算法。主要有SM1,SM2,SM3,SM4。密钥长度和分组长度均为128位。

SM1为对称加密。其加密强度与AES相当。该算法不公开,调用该算法时,需要通过加密芯片的接口进行调用。

SM2为非对称加密,基于ECC。该算法已公开。由于该算法基于ECC,故其签名速度与秘钥生成速度都快于RSA。ECC 256位(SM2采用的就是ECC 256位的一种)安全强度比RSA 2048位高,但运算速度快于RSA。

SM3消息摘要。可以用MD5作为对比理解。该算法已公开。校验结果为256位。

SM4无线局域网标准的分组数据算法。对称加密,密钥长度和分组长度均为128位。