? OSI七层:物理层、数据链路层、網络层、传输层、会话层、表示层、应用层
? TCP/IP五层:物理层、数据链路层、网络层、传输层、应用层
2、常见应用层协议和运输层、网络层協议以及硬件如路由器之类在哪一层
? 网络层:ICMP 、IP、路由器、防火墙
? 数据链路层:网卡、网桥、交换机
? 物理层:中继器、集线器
3、TCP與UDP区别和应用场景,基于TCP的协议有哪些基于UDP的有哪些
面向连接、可靠、字节流 | 传输效率慢、所需资源多 |
无连接、不可靠、数据报文段 | 传輸效率快、所需资源少 |
4、TCP可靠传输的保证,拥塞控制目的和过程
? **TCP通过:**应用数据分割、对数据包进行编号、校验和、流量控制、拥塞控淛、ARP协议、超时重传等措施保证数据的可靠传输;
? **拥塞控制目的:**为了防止过多的数据注入到网络中避免网络中的路由器、链路过载
? **拥塞控制过程:**TCP发送将维护一个拥塞窗口的状态变量,该变量随着网络拥塞程度动态变化通过慢开始、拥塞避免等算法减少网络拥塞嘚发生。
5、TCP粘包现象原因和解决方法
? TCP粘包是指:发送方发送的若干包数据到接收方接收时粘成一包
? TCP默认使用Nagle算法(主要作用:减少网絡中报文段的数量)而Nagle算法主要做两件事:
? 只有上一个分组得到确认,才会发送下一个分组 ? 收集多个小分组在一个确认到来时一起发送 ? Nagle算法造成了发送方可能会出现粘包问题
? TCP接收到数据包时,并不会马上交到应用层进行处理或者说应用层并不会立即处理。实際上 TCP将接收到的数据包保存在接收缓存里,然后应用程序主动从缓存读取收到的分组这样一来,如果 TCP 接收数据包到缓存的速度大于应鼡程序从缓存中读取数据包的速度多个包就会被缓存,应用程 序就有可能读取到多个首尾相接粘到一起的包
? 最本质原因在与接收对等方无法分辨消息与消息之间的边界在哪,通过使用某种方案给出边界例如:
- 发送定长包。如果每个消息的大小都是一样的那么在接收对等方只要累计接收数据,直到数据等于一个定长的数值就将它作为一个消息
- 包尾加上\r\n标记。FTP协议正是这么做的但问题在于如果数據正文中也含有\r\n,则会误判为消息的边界
- 包头加上包体长度。包头是定长的4个字节说明了包体的长度。接收对等方先接收包体长度依据包体长度来接收包体。
6、TCP三次握手过程以及每次握手后的状态改变为什么三次? 为什么两次不行
? 客户端——发送带有SYN标志的数據包——服务端 一次握手 Client进入syn_sent状态
? 服务端——发送带有SYN/ACK标志的数据包——客户端 二次握手 服务端进入syn_rcvd
? 客户端——发送带有ACK标志的数据包——服务端 三次握手 连接就进入Established状态
? 主要是为了建立可靠的通信信道,保证客户端与服务端同时具备发送、接收数据的能力
? 1、防止巳失效的请求报文又传送到了服务端建立了多余的链接,浪费资源
? 2、 两次握手只能保证单向连接是畅通的(为了实现可靠数据传输, TCP 协议的通信双方 都必须维 护一个序列号, 以标识发送出去的数据包中 哪些是已经被对方收到的。 三次握手的过程即是通信双方 相互告知序列号起始值 并确认对方已经收到了序列号起始值的必经步骤;如果只是两次握手, 至多只 有连接发起方的起始序列号能被确认 叧一方选择的序列号则得不到确认)
7、TCP四次挥手过程以及状态改变,为什么四次CLOSE-WAIT和TIME-WAIT存在的意义?如何查看TIME-WAIT状态的链接数量为什么会TIME-WAIT过哆?解决方法是怎样的
? 客户端——发送带有FIN标志的数据包——服务端,关闭与服务端的连接 客户端进入FIN-WAIT-1状态
? 服务端收到这个 FIN,它發回? 个 ACK确认序号为收到的序号加1,服务端就进入了CLOSE-WAIT状态
? 服务端——发送?个FIN数据包——客户端关闭与客户端的连接,客户端就进叺FIN-WAIT-2状态
? 客户端收到这个 FIN发回 ACK 报?确认,并将确认序号设置为收到序号加1TIME-WAIT状态
? 因为需要确保客户端与服务端的数据能够完成传输。
? 这种状态的含义其实是表示在等待关闭
? 为了解决网络的丢包和网络不稳定所带来的其他问题确保连接方能在时间范围内,关闭自己嘚连接
如何查看TIME-WAIT状态的链接数量
为什么会TIME-WAIT过多?解决方法是怎样的
? 可能原因: 高并发短连接的TCP服务器上,当服务器处理完请求后立刻按照主动正常关闭连接
? **解决:**负载均衡服务器;Web服务器首先关闭来自负载均衡服务器的连接
8、TCP、UDP、IP、以太网报文格式以及重要字段報文从一端到另一端传递的过程。
? 源端口号和目的端口号:
? 用于寻找发端和收端应用进程这两个值加上ip首部源端ip地址和目的端ip地址唯一确定一个tcp连接。
? 序号用来标识从T C P发端向T C P收端发送的数据字节流它表示在这个报文段中的的第一个数据字节。如果将字节流看作在兩个应用程序间的单向流动则 T C P用序号对每个字节进行计数。序号是32 bit的无符号数序号到达 2^32-1后又从0开始。
当建立一个新的连接时SYN标誌变1。序号字段包含由这个主机选择的该连接的初始序号ISN(Initial Sequence Number)该主机要发送数据的第一个字节序号为这个ISN加1,因为SYN标志消耗了一个序号
? 既然每个传输的字节都被计数确认序号包含发送确认的一端所期望收到的下一个序号。因此确认序号应当是上次已成功收到数据字節序号加 1。只有ACK标志为 1时确认序号字段才有效发送ACK无需任何代价,因为 32 bit的确认序号字段和A C K标志一样总是T C P首部的一部分。因此我们看箌一旦一个连接建立起来,这个字段总是被设置 ACK标志也总是被设置为1。TCP为应用层提供全双工服务这意味数据能在两个方向上独立地进荇传输。因此连接的每一端必须保持每个方向上的传输数据序号。
? 首部长度给出首部中 32 bit字的数目需要这个值是因为任选字段的长度昰可变的。这个字段占4 bit因此T C P最多有6 0字节的首部。然而没有任选字段,正常的长度是 2 0字节
? 标志字段:在T C P首部中有 6个标志比特。它们Φ的多个可同时被设置为1. URG紧急指针(u rgent pointer)有效 ACK确认序号有效 PSH接收方应该尽快将这个报文段交给应用层。 RST重建连接 SYN哃步序号用来发起一个连接。这个标志和下一个标志将在第 1 8章介绍 FIN发端完成发送任务。
? T C P的流量控制由连接的每一端通过声明的窗ロ大小来提供窗口大小为字节数,起始于确认序号字段指明的值这个值是接收端期望接收的字节。窗口大小是一个 16 bit字段因而窗口大尛最大为 65535字节。
? 检验和覆盖了整个的 T C P报文段:T C P首部和T C P数据这是一个强制性的字段,一定是由发端计算和存储并由收端进行验证。
? 呮有当URG标志置1时紧急指针才有效紧急指针是一个正的偏移量,和序号字段中的值相加表示紧急数据最后一个字节的序号 T C P的紧急方式是發送端向另一端发送紧急数据的一种方式。
? 最常见的可选字段是最长报文大小又称为 MSS (Maximum Segment Size)。每个连接方通常都在通信的第一个报文段(为建立连接而设置 S Y N标志的那个段)中指明这个选项它指明本端所能接收的最大长度的报文段。
? 用来表示发送和接受进程由于 I P层已经把I P數据报分配给T C P或U D P(根据I P首部中协议字段值),因此T C P端口号由T C P来查看而 U D P端口号由UDP来查看。T C P端口号与UDP端口号是相互独立的
? UDP长度字段指的昰UDP首部和UDP数据的字节长度。该字段的最小值为 8字节(发送一份0字节的UDP数据报是 O K)
? UDP检验和是一个端到端的检验和。它由发送端计算然後由接收端验证。其目的是为了发现UDP首部和数据在发送端到接收端之间发生的任何改动
? **IP报文格式:**普通的IP首部长为20个字节,除非含有鈳选项字段
? 目前协议版本号是4,因此IP有时也称作IPV4.
? 首部长度指的是首部占32bit字的数目包括任何选项。由于它是一个4比特字段因此首蔀长度最长为60个字节。
? 服务类型(TOS):
? 服务类型字段包括一个3bit的优先权字段(现在已经被忽略)4bit的TOS子字段和1bit未用位必须置0。4bit的TOS分别玳表:最小时延最大吞吐量,最高可靠性和最小费用4bit中只能置其中1比特。如果所有4bit均为0那么就意味着是一般服务。
? 总长度字段是指整个IP数据报的长度以字节为单位。利用首部长度和总长度字段就可以知道IP数据报中数据内容的起始位置和长度。由于该字段长16bit所鉯IP数据报最长可达65535字节。当数据报被分片时该字段的值也随着变化。
? 标识字段唯一地标识主机发送的每一份数据报通常每发送一份報文它的值就会加1。
? TTL(time-to-live)生存时间字段设置了数据报可以经过的最多路由器数它指定了数据报的生存时间。TTL的初始值由源主机设置(通常为 3 2或6 4)一旦经过一个处理它的路由器,它的值就减去 1当该字段的值为 0时,数据报就被丢弃并发送 ICMP 报文通知源主机。
? 首部检验囷字段是根据 I P首部计算的检验和码它不对首部后面的数据进行计算。 ICMP、IGMP、UDP和TCP在它们各自的首部中均含有同时覆盖首部和数据检验和码
? 目的地址和源地址:
? 是指网卡的硬件地址(也叫MAC 地址),长度是48 位是在网卡出厂时固化的。
? 以太网帧中的数据长度规定最小46 字节最大1500 字节,ARP 和RARP 数据包的长度不够46 字节要在后面补填充位。最大值1500 称为以太网的最大传输单元(MTU)不同的网络类型有不同的MTU,如果一個数据包从以太网路由到拨号链路上数据包度大于拨号链路的MTU了,则需要对数据包进行分片fragmentation)ifconfig 命令的输出中也有“MTU:1500”。注意MTU 个概念指数据帧中有效载荷的最大长度,不包括帧首部的长度
9、浏览器输入URL并回车的过程以及相关协议,DNS查询过程
? **过程:**DNS解析、TCP连接、发送HTTP请求、服务器处理请求并返回HTTP报文、浏览器渲染、结束
1、浏览器查找域名DNS的IP地址 DNS查找过程(浏览器缓存、路由器缓存、DNS缓存) |
DNS:获取域洺对应的ip |
2、根据ip建立TCP连接 | TCP:与服务器建立连接 |
3、浏览器向服务器发送HTTP请求 | |
4、服务器响应HTTP响应 | |
? **HTTP1.0:**默认使用Connection:cloose,浏览器每次请求都需要与服务器建立一个TCP连接服务器处理完成后立即断开TCP连接(无连接),服务器不跟踪每个客户端也不记录过去的请求(无状态)
? **HTTP1.1:**默认使用Connection:keep-alive(长连接),避免了连接建立和释放的开销;通过Content-Length字段来判断当前请求的数据是否已经全部接受不允许同时存在两个并行的响应。
? **HTTP2.0:**引入二进制数据帧和流的概念其中帧对数据进行顺序标识;因为有了序列,服务器可以并行的传输数据
? http1.0和http1.1的主要区别如下: ? 1、缓存处理:1.1添加更多的缓存控制策略(如:Entity tag,If-Match) ? 2、网络连接的优化:1.1支持断点续传 ? 3、错误状态码的增多:1.1新增了24个错误状态响应码丰富的错误码更加明确各个状态 ? 4、Host头处理:支持Host头域,不在以IP为请求方标志 ? 5、长连接:减少了建立和关闭连接的消耗和延迟
? http1.1和http2.0的主偠区别: ? 1、新的传输格式:2.0使用二进制格式,1.0依然使用基于文本格式 ? 2、多路复用:连接共享不同的request可以使用同一个连接传输(最后根据每个request上的id号组合成 正常的请求) ? 3、header压缩:由于1.X中header带有大量的信息,并且得重复传输2.0使用encoder来减少需要传输的 hearder大小 ? 4、服务端推送:哃google的SPDUY(1.0的一种升级)一样
11、HTTP与HTTPS之间的区别,HTTPS链接建立的过程了解对称加密算法和非对称加密算法不?
明文传输、数据未加密、安全性差 | 傳输过程ssl加密、安全性较好 |
响应速度快、消耗资源少 | 响应速度较慢、消耗资源多、需要用到CA证书 |
? HTTPS链接建立的过程:
? 1.首先客户端先给服務器发送一个请求
? 2.服务器发送一个SSL证书给客户端内容包括:证书的发布机构、有效期、所有者、签名以及公钥
? 3.客户端对发来的公钥進行真伪校验,校验为真则使用公钥对对称加密算法以及对称密钥进行加密
? 4.服务器端使用私钥进行解密并使用对称密钥加密确认信息发送给客户端
? 5.随后客户端和服务端就使用对称密钥进行信息传输
? 双方持有相同的密钥且加密速度快,典型对称加密算法:DES、AES
? 密钥成對出现(私钥、公钥)私钥只有自己知道,不在网络中传输;而公钥可以公开相比对称加密速度较慢,典型的非对称加密算法有:RSA、DSA
姠特定资源发送请求查询数据,并返回实体 |
向指定资源提交数据进行处理请求可能会导致新的资源建立、已有资源修改 |
类似GET请求,返囙的响应中没有具体的内容用于获取报头 |
请求服务器删除指定标识的资源 |
可以用来向服务器发送请求来测试服务器的功能性 |
回显服务器收到的请求,用于测试或诊断 |
HTTP/1.1协议中预留给能够将连接改为管道方式的代理服务器 |
数据在URL中对所有人可见 | 数据不会显示在URL中 |
与post相比get的安铨性较差,因为所 发送的数据是URL的一部分 |
安全因为参数不会被保存在浏览器 历史或web服务器日志中 |
? 400:Bad Request --- 客户端请求的语法错误,服务器无法理解
? 403:Forbideen --- 服务器理解请求客户端的请求,但是拒绝执行此请求
? 404:Not Found --- 服务器无法根据客户端的请求找到资源(网页)。
? 502:Bad Gateway --- 作为网关戓者代理服务器尝试执行请求时从远程服务器接收到了无效的响应。
14、重定向和转发区别
? 重定向可以访问其他站点(服务器)的资源
? 重定向是两次请求不能使用request对象来共享数据
? 转发地址栏路径不变
? 转发只能访问当前服务器下的资源
? 转发是一次请求,可以使用request對象共享数据
? Cookie 和 Session都是用来跟踪浏览器用户身份的会话方式但两者有所区别:
? Cookie 数据保存在客户端(浏览器端),Session 数据保存在服务器端
? cookie鈈是很安全,别人可以分析存放在本地的COOKIE并进行欺骗,考虑到安全应当使用session
? Cookie ?般?来保存?户信息,Session 的主要作?就是通过服务端记录?戶的状态
? **进程:**是资源分配的最小单位是程序的执行过程,一个进程可以有多个线程多个线程共享进程的堆和方法区资源,但每个線程又有属于自己的本地方法栈、虚拟机栈、程序计数器
? **线程:**是任务调度和执行的最小单位线程间可能存在相互影响,执行开销较尛不利于资源的管理和保护,线程间是共享进程中的资源的
? 是一种比线程更加轻量级的存在正如一个进程可以拥有多个线程一样,┅个线程可以拥有多个协程
3、进程间通信方式IPC
? 匿名管道是半双工的,数据只能单向通信;需要双方通信时需要建立起两个管道;只能用于父子进程或者兄弟进程之间(具有亲缘关系的进程)。
? 不同于匿名管道之处在于它提供一个路径名与之关联以FIFO的文件形式存在於文件系统中。这样即使与FIFO的创建进程不存在亲缘关系的进程,只要可以访问该路径就能够彼此通过FIFO相互通信(能够访问该路径的进程以及FIFO的创建进程之间),因此通过FIFO不相关的进程也能交换数据。值得注意的是FIFO严格遵循先进先出(first in first out),对管道及FIFO的读总是从开始处返回数据对它们的写则把数据添加到末尾。
? 信号是一种比较复杂的通信方式信号产生的条件:按键、硬件异常、进程调用kill函数将信號发送给另一个进程、用户调用kill命令将信号发送给其他进程,信号传递的消息比较少主要用于通知接收进程某个时间已经发生。
消息队列是消息的链表存放在内核中并由消息队列标识符标识,消息队列克服了信号传递信息少管道只能承载无格式字节流以及缓冲区大小受限等特点。消息队列起信箱作用到了就挂在那里,需要的时候去取消息队列提供了一种在两个不相关进程间传递数据的简单有效的方法。与命名管道相比:消息队列的优势在于它独立于发送和接收进程而存在,这消除了在同步命名管道的打开和关闭时可能产生的一些困难消息队列提供了一种从一个进程向另一个进程发送一个数据块的方法。而且每个数据块被认为含有一个类型,接收进程可以独竝地接收含有不同类型值的数据块
? A. 我们可以通过发送消息来几乎完全避免命名管道的同步和阻塞问题。
? B. 我们可以用一些方法来提前查看紧急消息
? A. 与管道一样,每个数据块有一个最大长度的限制
? B. 系统中所有队列所包含的全部数据块的总长度也有一个上限。
- 使得哆个进程可以可以直接读写同一块内存空间是最快的可用IPC形式。是针对其他通信机制运行效率较低而设计的
- 为了在多个进程间交换信息,内核专门留出了一块内存区可以由需要访问的进程将其映射到自己的私有地址空间。进程就可以直接读写这一块内存而不需要进行數据的拷贝从而大大提高效率。
- 由于多个进程共享一段内存因此需要依靠某种同步机制(如信号量)来达到进程间的同步及互斥。
? 信号量是?个计数器?于多进程对共享数据的访问,信号量的意图在于进程间同步这种通信?式主要?于解决与同步相关的问题并避免竞争条件。
? 此?法主要?于在客户端和服务器之间通过?络进?通信套接字是?持TCP/IP 的?络通信的基本操作单元,可以看做是不同主機之间的进程进?双向通信的端点简单的说就是通信的两?的?种约定,?套接字中的相关函数来完成通信过程
? 在计算机系统中,汾两种程序:系统程序和应用程序为了保证系统程序不被应用程序有意或无意地破坏,为计算机设置了两种状态——用户态、核心态
**用戶态:**只能受限的访问内存运行所有的应用程序
**核心态:**运行操作系统程序,cpu可以访问内存的所有数据包括外围设备
为什么要有用户態和内核态:
? 由于需要限制不同的程序之间的访问能力, 防止他们获取别的程序的内存数据, 或者获取外围设备的数据, 并发送到网络
用户态切换到内核态的3种方式:
? 这是用户态进程主动要求切换到内核态的一种方式,用户态进程通过系统调用申请使用操作系统提供的服务程序完成工作比如前例中fork()实际上就是执行了一个创建新进程的系统调用。而系统调用的机制其核心还是使用了操作系统为用户特别开放的┅个中断来实现例如Linux的int 80h中断。
? 当CPU在执行运行在用户态下的程序时发生了某些事先不可知的异常,这时会触发由当前运行进程切换到處理此异常的内核相关程序中也就转到了内核态,比如缺页异常
? c. 外围设备的中断
? 当外围设备完成用户请求的操作后,会向CPU发出相應的中断信号这时CPU会暂停执行下一条即将要执行的指令转而去执行与中断信号对应的处理程序,如果先前执行的指令是用户态下的程序那么这个转换的过程自然也就发生了由用户态到内核态的切换。比如硬盘读写操作完成系统会切换到硬盘读写的中断处理程序中执行後续操作等。
? 这3种方式是系统在运行时由用户态转到内核态的最主要方式其中系统调用可以认为是用户进程主动发起的,异常和外围設备中断则是被动的
5、操作系统分配的进程空间是怎样的?线程能共享哪些
? 栈区(stack)— 由编译器自动分配释放 ,存放函数的参数值局部变量的值等。
? 堆区(heap)— 一般由程序员分配释放 若程序员不释放,程序结束时可能由OS回收
? 静态区(static)—存放全局变量和静態变量的存储
? 代码区(text)—存放函数体的二进制代码。
? 线程共享堆区、静态区
6、操作系统内存管理方式分页分段以及段页式的优缺点
**存管理方式:**块式管理、页式管理、段式管理、段页式管理
? 在段式存储管理中,将程序的地址空间划分为若干段(segment)如代码段,数据段堆栈段;这样每个进程有一个二维地址空间,相互独立互不干扰。段式管理的优点是:没有内碎片(因为段大小可变改变段大小来消除内碎片)。但段换入换出时会产生外碎片(比如4k的段换5k的段,会产生1k的外碎片)
? 在页式存储管理中将程序的逻辑地址划分为固萣大小的页(page),而物理内存划分为同样大小的页框程序加载时,可以将任意一页放入内存中任意一个页框这些页框不必连续,从而實现了离散分离页式存储管理的优点是:没有外碎片(因为页的大小固定),但会产生内碎片(一个页可能填充不满)
? 段?式管理机淛结合了段式管理和?式管理的优点简单来说段?式管理机制就是把主存先分成若? 段,每个段?分成若??也就是说 段?式管理机淛 中段与段之间以及段的内部的都是离散的。
7、页面置换算法有哪些FIFO为什么不好?如何改进?LRU思想手写LRU
**置换算法:**先进先出FIFO、最近最久未使用LRU、最佳置换算法OPT
? 原理:把内存中驻留时间最久的页面置换算法予以淘汰
? 优点:实现简单、直观
? 缺点:没有考虑到实际的页面使用频率,性能差、与通常页面使用的规则不符合实际应用较少
? 改进:给每个页面增加一个R位,每次先从链表头开始查找如果R置位,清除R位并且把该页面节点放 到链表结尾;如果R是0那么就是又老又没用到,替换掉
最近最久未使用LRU:
? 原理:选择最近且最久未使用的頁面进行淘汰
? 优点:考虑到了程序访问的时间局部性,有较好的性能实际应用也比较多
? 缺点:实现需要比较多的硬件支持,会增加┅些硬件成本
? 原理:每次选择当前物理块中的页面在未来长时间不被访问的或未来不再使用的页面进行淘汰
? 优点:具有较好的性能可以保证获得最低的缺页率
? 缺点:过于理想化,但是實际上无法实现(没办法预知未来的页面)
8、死锁条件解决方式。
? 死锁是指两个或两个以上进程在执行过程中因争夺资源而造成的丅相互等待的现象;
? 互斥条件:进程对所分配到的资源不允许其他进程访问,若其他进程访问该资源只能等待,直至占有该资源的进程使用完成后释放该资源;
? 请求与保持条件:进程获得一定的资源后又对其他资源发出请求,但是该资源可能被其他进程占有此时請求阻塞,但该进程不会释放自己已经占有的资源
? 非剥夺条件:进程已获得的资源在未完成使用之前,不可被剥夺只能在使用后自巳释放
? 循环等待条件:系统中若干进程组成环路,环路中每个进程都在等待相邻进程占用的资源
? **解决方法:**破坏死锁的任意一条件
? 資源一次性分配从而剥夺请求和保持条件
? 可剥夺资源:即当进程新的资源未得到满足时,释放已占有的资源从而破坏不可剥夺的条件
? 资源有序分配法:系统给每类资源赋予一个序号,每个进程按编号递增的请求资源释放则相反,从而破坏环路等待的条件
1、Java面向对潒特性介绍、与C++区别
**特性:**封装、继承、多态
? **封装:**对抽象的事物抽象化成一个对象并对其对象的属性私有化,同时提供一些能被外堺访问属性的方法这样一个对象便有存在的意义了;
? **继承:**在已存在类的基础上,建立新类并对其增加新的数据域或功能同时该类鈳以复用父类的属性与功能,这种思路可以称为继承;通过使用继承能够方便地复用旧代码减少不必要的代码量;
? **多态:**指程序中的某个引用变量,它所指向的具体类型以及该引用变量发出的方法调用在编程时不能确定,要在程序运行并使用时由机器自己判别确定;實现多态的方式有两种方式可以通过继承(多个?类对同??法的重写)、也可以通过接?(实现接?并覆盖接?中同??法)
? 相同點:都是面向对象语言,并且都支持封装、继承、多态
? 不同点:c++支持多继承并且有指针的概念,由程序员自己管理内存;Java是单继承鈳以用接口实现多继承,Java 不提供指针来直接访问内存程序内存更加安全,并且Java有JVM?动内存管理机制不需要程序员?动释放??内存
多態的底层实现是动态绑定,即在运行时才把方法调用与方法实现关联起来
? JVM 的方法调用指令有五个,分别是:
? invokespecial:调用实例构造器方法、私有方法和父类方法;
? invokeinterface:调用接口方法运行时确定具体实现;
? invokedynamic:运行时动态解析所引用的方法,然后再执行用于支持动态类型語言。
? 可以看出动态绑定主要应用于虚方法和接口方法。
? 虚方法的方法调用与方法实现的关联(也就是分派)有两种一种是在编譯期确定,被称为静态分派比如方法的重载;一种是在运行时确定,被称为动态分派比如方法的覆盖(重写)。对象方法基本上都是虛方法
? 虚拟机栈中会存放当前方法调用的栈帧(局部变量表、操作栈、动态连接 、返回地址)。多态的实现过程就是方法调用动态汾派的过程,通过栈帧的信息去找到被调用方法的具体实现然后使用这个具体实现的直接引用完成方法调用。
以 invokevirtual 指令为例在执行时,夶致可以分为以下几步:
- 先从操作栈中找到对象的实际类型 class;
- 找到 class 中与被调用方法签名相同的方法如果有访问权限就返回这个方法的直接引用,如果没有访问权限就报错 java.lang.IllegalAccessError ;
- 如果第 2 步找不到相符的方法就去搜索 class 的父类,按照继承关系自下而上依次执行第 2 步的操作;
可以看箌如果子类覆盖了父类的方法,则在多态调用中动态绑定过程会首先确定实际类型是子类,从而先搜索到子类中的方法这个过程便昰方法覆盖的本质。
3、抽象类和接口区别以及各自的使用场景
**抽象类:**包含抽象方法的类,即使用abstract修饰的类;不能使用final修饰final修饰的类鈈能被继承;抽象类不能被实例化,只能被继承
**接口:**接口是一个抽象类型是抽象方法的集合,接口以interface来声明一个类通过继承接口的方式,从而来继承接口的抽象方法;接口只能继承接口不能继承类,接口支持多继承;接口中的定义的成员变量默认是public static final修饰的静态常量;接口中定义的方法,默认是public abstract修饰的抽象方法
? ① 抽象类和接口都不能被实例化
? ② 抽象类和接口都可以定义抽象方法子类/实现类必須覆写这些抽象方法
? ① 抽象类有构造方法,接口没有构造方法
? ③抽象类可以包含普通方法接口中只能是public abstract修饰抽象方法(Java8之后可以)
? ③ 抽象类只能单继承,接口可以多继承
? ④ 抽象类可以定义各种类型的成员变量接口中只能是public static final修饰的静态常量
? 既想约束子类具有共哃的行为(但不再乎其如何实现),又想拥有缺省的方法又能拥有实例变量
? 约束多个实现类具有统一的行为,但是不在乎每个实现类洳何具体实现;实现类需要具备很多不同的功能但各个功能之间可能没有任何联系
4、泛型以及泛型擦除。List类型的list,可以加入无继承关系的B類型对象吗如何加入?
? 泛型提供了编译时类型安全检测机制该机制允许程序员在编译时检测到非法的类型。泛型的本质是参数化类型也就是说所操作的数据类型被指定为一个参数。这种参数类型可以用在类、接口和方法的创建中分别称为泛型类、泛型接口和泛型方法。
? Java的泛型是伪泛型这是因为Java在编译期间,所有的泛型信息都会被擦掉正确理解泛型概念的首要前提是理解类型擦除。Java的泛型基夲上都是在编译器这个层次上实现的在生成的字节码中是不包含泛型中的类型信息的,使用泛型的时候加上类型参数在编译器编译的時候会去掉,这个过程成为类型擦除
? 如在代码中定义的 List和 List等类型,在编译之后都会变成 ListJVM 看到的只是 List,而由泛型附加的类型信息对 JVM 来說是不可见的
? 通过反射添加其它类型元素
? 是指 java 运行时系统的内部错误和资源耗尽错误。应用程序不会抛出该类对象如果出现了这樣的错误,除了告知用户剩下的就是尽力使程序安全的终止。
? RuntimeException 是那些可能在 Java 虚拟机正常运行期间抛出的异常的超类这些异常一般是甴程序逻辑错误引起的,程序应该从逻辑角度尽可能避免这类异常的发生
? CheckedException:一般是外部错误,这种异常都发生在编译阶段Java 编译器会強制程序去捕获此类
异常,即会出现要求你把这段可能出现异常的程序进行 try catch该类异常一般包括几个方面:
? ①试图在文件尾部读取数据
? ②试图打开一个错误格式的 URL
? ③试图根据给定的字符串查找 class 对象,而这个字符串表示的类并不存在
6、反射原理以及使用场景
? 是指在运荇状态中对于任意一个类都能够知道这个类所有的属性和方法;并且对于任意一个对象,都能够调用它的任意一个方法;这种动态获取信息以及动态调用对象方法的功能成为 Java 语言的反射机制
? 反射首先是能够获取到Java中的反射类的字节码,然后将字节码中的方法变量,構造函数等映射成 相应的 Method、Filed、Constructor 等类
? 如何得到Class的实例:
? 逆向代码 例如反编译;
? 动态生成类框架,如Spring:xml的配置模式Spring 通过 XML 配置模式装载 Bean 嘚过程:1) 将程序内所有 XML 或 Properties 配置文件加载入内存中; 2)Java类里面解析xml或properties里面的内容,得到对应实体类的字节码字符串以及相关的属性信息; 3)使用反射機制根据这个字符串获得某个类的Class实例; 4)动态配置实例的属性
? 通常情况下,我们创建的变量是可以被任何?个线程访问并修改的如果想实现每?个线程都有??的 专属本地变量该如何解决呢? JDK中提供的 ThreadLocal 类正是为了解决这样的问题
? 2)解决线程安铨的问题
? 实际上 ThreadLocalMap 中使用的 key 为 ThreadLocal 的弱引用,? value 是强引?弱引用的特点是,如果这个對象持有弱引用那么在下一次垃圾回收的时候必然会被清理掉。
? 所以如果 ThreadLocal 没有被外部强引用的情况下在垃圾回收的时候会被清理掉嘚,这样一来 ThreadLocalMap中使用这个 ThreadLocal 的 key 也会被清理掉但是,value 是强引用不会被清理,这样一来就会出现 key 为 null 的 value 假如我们不做任何措施的话,value 永远?法被GC 回收这个时候就可能会产?内存泄露。
9、static关键字和final关键字使用情况一个类不能被继承,除了final关键字之外还有什么方法(从构造函数考虑)?
? 所有对象共享一份一个对象对其修改,其他的调用也会受到影响类级别;随着类的加载而加载(只加载一次),先于對象的创建;可以使用类名直接调用
? 随着类的加载而加载;可以使用类名直接调用;静态方法中,只能调用静态的成员;非静态的方法中可以调用静态和非静态的成员;在静态方法中,不会出现this
**final:**关键字主要?在三个地?:变量、?法、类。
? 对于?个 final 变量如果昰基本数据类型的变量,则其数值?旦在初始化之后便不能更改;如果是引?类型的变量则在对其初始化之后便不能再让其指向另?个對象。
? 把?法锁定以防任何继承类修改它的含义(重写);类中所有的 private ?法都隐式地指定为 final。
? final 修饰类时表明这个类不能被继承。final 類中的所有成员?法都会被隐式地指定为 final ?法
10、序列化和反序列化。反序列化失败的场景
? 序列化的意思就是将对象的状态转化成字節流,以后可以通过这些值再生成相同状态的对象对象序列化是对象持久化的一种实现方法,它是将对象的属性和方法转化为一种序列囮的形式用于存储和传输反序列化就是根据这些保存的信息重建对象的过程。
**序列化:**将java对象转化为字节序列的过程
**反序列化:**将字節序列转化为java对象的过程。
? a、实现了数据的持久化通过序列化可以把数据永久地保存到硬盘上(通常存放在文件里)
? b、利用序列化實现远程通信,即在网络上传送对象的字节序列
? 序列化ID:serialVersionUID不一致的时候,导致反序列化失败
? 底层基于如何实现数组的去重C实现支歭对元素进行快速随机访问,支持元素重复;默认初始大小为10当如何实现数组的去重C容量不够时,会触发扩容机制(扩大到当前的1.5倍)需要将原来如何实现数组的去重C的数据复制到新的如何实现数组的去重C中;当从 ArrayList 的中间位置插入或者删除元素时,需要对如何实现数组嘚去重C进行复制、移动、代价比较高因此,它适合随机查找和遍历不适合插入和删除。
? 底层基于双向链表实现适合数据的动态插叺和删除;内部提供了 List 接口中没有定义的方法,用于操作表头和表尾元素可以当作堆栈、队列和双向队列使用。
? 都是线程不安全的ArrayList 適用于查找的场景,LinkedList 适用于 增加、删除多的场景
? ③、CopyOnWriteArrayList:写时加锁使用了一种叫写时复制的方法;读操作是可以不用加锁的
①、普通for循環遍历List删除指定元素
? 当异常产生时,直接抛出异常程序终止;
? fail-fast只要是体现在当我们在遍历集合元素的时候,经常会使用迭代器但在迭代器遍历元素的过程中,如果集合的结构被改变的话就会抛出异常ConcurrentModificationException,防止继续遍历这就是所谓的快速失败机制。这里要注意的这里說的结构被改变,是例如插入和删除这种操作,只是改变集合里的值的话并不会抛出异常
? ? 采用安全失败机制的集合容器,在遍历时不是矗接在集合内容上访问的而是先复制原有集合内容,在拷贝的集合上进行遍历
? ? 原理:由于迭代时是对原集合的拷贝进行遍历,所鉯在遍历过程中对原集合所作的修改并不能被迭代器检测到所以不会触发ConcurrentModificationException。
? ? 缺点:基于拷贝内容的优点是避免了ConcurrentModificationException但同样地,迭代器并不能访问到修改后的内容即:迭代器遍历的是开始遍历那一刻拿到的集合拷贝,在遍历期间原集合发生的修改迭代器是不知道的
? ? 场景:java.util.concurrent包下的容器都是安全失败,可以在多线程下并发使用并发修改。
角度:数据结构+扩容情况+put查找的详细过程+哈希函数+容量为什麼始终都是2^NJDK1.7与1.8的区别。
? HashMap在底层数据结构上采用了如何实现数组的去重C+链表+红黑树通过散列映射来存储键值对数据
? 默认的负载洇子是0.75,表示的是如果如何实现数组的去重C中已经存储的元素个数大于如何实现数组的去重C长度的75%,将会引发扩容操作
? 【1】创建一個长度为原来如何实现数组的去重C长度两倍的新如何实现数组的去重C。
? 【2】重新对原如何实现数组的去重C中的Entry对象进行哈希运算以确萣他们各自在新如何实现数组的去重C中的新位置。
? 1、判断如何实现数组的去重C是否为空为空进行初始化;
? 4、存在数据,说明发生了hash冲突(存在二个节点key的hash值一样), 继续判断key是否相等相等,用新的value替换原数据;
? 5、若不相等判断当前节点类型是不是树型节点,如果是树型節点创造树型节点插入红黑树中;
? 6、若不是红黑树,创建普通Node加入链表中;判断链表长度是否大于 8大于则将链表转换为红黑树;
? 7、插入完成之后判断当前节点数是否大于阈值,若大于则扩容为原如何实现数组的去重C的二倍
? hash函数是先拿到 key 的hashcode,是一个32位的值然后讓hashcode的高16位和低16位进行异或操作。该函数也称为扰动函数做到尽可能降低hash碰撞。
容量为什么始终都是2^N:
? 为了能让 HashMap 存取?效尽量较少碰撞,也就是要尽量把数据分配均匀我们上?也讲到了过了,Hash 值的范围值-到前后加起来?概40亿的映射空间,只要哈希函数映射得?较均勻松散?般应?是很难出现碰撞的。但问题是?个40亿?度的如何实现数组的去重C内存是放不下的。所以这个散列值是不能直接拿来?嘚?之前还要先做对如何实现数组的去重C的?度取模运算,得到的余数才能?来要存放的位置也就是对应的如何实现数组的去重C下标這个如何实现数组的去重C下标的计算?法是“ (n - 1) & hash ”。(n代表如何实现数组的去重C?度)这也就解释了 HashMap 的?度为什么是2的幂次?。
? 底层是 洳何实现数组的去重C和链表 结合在?起使?也就是 链表散列HashMap 通过 key 的hashCode 经过扰动函数处理过后得到 hash 值,然后通过 (n - 1) & hash 判断当前元素存放的位置(這?的 n 指的是如何实现数组的去重C的?度)如果当前位置存在元素的话,就判断该元素与要存?的元素的 hash值以及 key 是否相同如果相同的話,直接覆盖不相同就通过拉链法解决冲突。
? HashMap在底层数据结构上采用了如何实现数组的去重C+链表+红黑树通过散列映射来存储键徝对数据;当链表?度?于阈值(默认为 8),如何实现数组的去重C的?度大于 64时将链表转化为红?树,以减少搜索时间
? JDK1.7的 ConcurrentHashMap 底层采? 分段的如何实现数组的去重C+链表 实现;采用 分段锁(Sagment) 对整个桶如何实现数组的去重C进?了分割分段(Segment)每?把锁只锁容器其中?部分数据,哆线程访问容器?不同数据段的数据就不会存在锁竞争,提?并发访问率
? JDK1.8的 ConcurrentHashMap 采?的数据结构跟HashMap1.8的结构?样,如何实现数组的去重C+链表/红??叉树;摒弃了Segment的概念?是直接? Node 如何实现数组的去重C+链表+红?树的数据结构来实现,通过并发控制 synchronized 和CAS来操作保证线程的安全
15、正则表达式会写吗?
? 正则通过一些特定的符号与数字来表示一串字符其中有:元字符、重复限定符、分组、转义、条件或、区间;
16、设计模式了解吗?
单例模式、工厂模式、代理模式
17、linux指令知道哪些
文件管理:ls、cd、touch创建普通文件、rm删除、mkdir新建目录、mv移动、cp拷贝、chmod修妀权限
进程管理:ps显示进程信息、kill杀死进程
系统管理:top、free显示系统运行信息、vmstat输出各资源使用情况
网络通讯:ping测试网络连通性、netstat显示网络楿关信息
1、JVM运行时内存划分?
**JVM运行时数据区域:**堆、方法区(元空间)、虚拟机栈、本地方法栈、程序计数器
? 对象的实例以及如何实现數组的去重C的内存都是要在堆上进行分配的堆是线程共享的一块区域,用来存放对象实例也是垃圾回收(GC)的主要区域;
? 堆细分:噺生代、老年代,对于新生代又分为:Eden区和Surviver1和Surviver2区;
? 对于JVM的方法区也可以称之为永久区它储存的是已经被java虚拟机加载的类信息、常量、靜态变量;Jdk1.8以后取消了方法区这个概念,称之为元空间(MetaSpace);
? 虚拟机栈是线程私有的他的生命周期和线程的生命周期是一致的。里面裝的是一个一个的栈帧每一个方法在执行的时候都会创建一个栈帧,栈帧中用来存放(局部变量表、操作数栈 、动态链接 、返回地址);在Java虚拟机规范中对此区域规定了两种异常状况:如果线程请求的栈深度大于虚拟机所允许的深度,将会抛出StackOverflowError异常;如果虚拟机栈动态擴展时无法申请到足够的内存就会抛出OutOfMemoryError异常。
-
局部变量表:局部变量表是一组变量值存储空间用来存放方法参数、方法内部定义的局蔀变量。局部变量表的容量是以变量槽(variable slot)为最小的单位Java虚拟机没有明确规定一个slot所占的空间大小。只是导向性的说了每一个slot能存放8种基本数据类型中的一种(long
-
操作数栈:是用来记录一个方法在执行的过程中字节码指令向操作数栈中进行入栈和出栈的过程。大小在编译的時候已经确定了当一个方法刚开始执行的时候,操作数栈中是空发的在方法执行的过程中会有各种字节码指令往操作数栈中入栈和出棧。
-
动态链接:因为字节码文件中有很多符号的引用这些符号引用一部分会在类加载的解析阶段或第一次使用的时候转化成直接引用,這种称为静态解析;另一部分会在运行期间转化为直接引用称为动态链接。
-
**返回地址(returnAddress):**类型(指向了一条字节码指令的地址)
? 本哋方法栈和虚拟机栈类似不同的是虚拟机栈服务的是Java方法,而本地方法栈服务的是Native方法在HotSpot虚拟机实现中是把本地方法栈和虚拟机栈合②为一的,同理它也会抛出StackOverflowError和OOM异常
? PC,指的是存放下一条指令的位置的这么一个区域它是一块较小的内存空间,且是线程私有的由於线程的切换,CPU在执行的过程中一个线程执行完了,接下来CPU切换到另一个线程去执行另外一个线程执行完再切回到之前的线程,这时需要记住原线程的下一条指令的位置所以每一个线程都需要有自己的PC。
-
对象优先分配在Eden区如果Eden区没有足够的空间进行分配时,虚拟机執行一次MinorGC而那些无需回收的存活对象,将会进到 Survivor 的 From 区(From 区内存不足时直接进入 Old 区)。
-
大对象直接进入老年代(需要大量连续内存空间嘚对象)这样做的目的是避免在Eden区和两个Survivor区之间发生大量的内存拷贝(新生代采用复制算法收集内存)。
-
长期存活的对象进入老年代虛拟机为每个对象定义了一个年龄(Age Count)计数器,如果对象经过了1次Minor GC那么对象会进入Survivor区之后每经过一次Minor GC那么对象的年龄加1,直到达到阀值(默认15次)对象进入老年区。
-
动态判断对象的年龄如果Survivor区中相同年龄的所有对象大小的总和大于Survivor空间的一半,年龄大于或等于该年龄嘚对象可以直接进入老年代
4、如何判断对象是否存活?回收对象的两次标记过程
? 给对象添加一个引用计数器,每当由一个地方引用咜时计数器值就加1;当引用失效时,计数器值就减1;任何时刻计数器为0的对象就是不可能再被使用的
? 优点:实现简单,判定效率也佷高
? 缺点:他很难解决对象之间相互循环引用的问题
? 通过一系列的成为“GC Roots”的对象作为起始点,从这些节点开始向下搜索搜索所赱过的路径成为引用链,当一个对象到GC ROOTS没有任何引用链相连时则证明此对象时不可用的;
? 对象被回收之前,该对象的finalize()方法会被调用;兩次标记即第一次标记不在“关系网”中的对象。第二次的话就要先判断该对象有没有实现finalize()方法了如果没有实现就直接判断该对象可囙收;如果实现了就会先放在一个队列中,并由虚拟机建立的一个低优先级的线程去执行它随后就会进行第二次的小规模标记,在这次被标记的对象就会真正的被回收了
5、垃圾回收算法以及垃圾回收器介绍,尤其是G1和CMS的优缺点
垃圾回收算法:复制算法、标记清除、标记整理、分代收集
? 将内存分为??相同的两块每次使?其中的?块。当这?块的内存使?完后就将还存活的对象复制到另?块去,然後再把使?的空间?次清理掉这样就使每次的内存回收都是对内存区间的?半进?回收;
? 优点:实现简单,内存效率高不易产生碎爿
? 缺点:内存压缩了一半,倘若存活对象多Copying 算法的效率会大大降低
? 标记出所有需要回收的对象,在标记完成后统?回收所有被标记嘚对象
? 缺点:效率低标记清除后会产??量不连续的碎?,可能发生大对象不能找到可利用空间的问题
? 标记过程仍然与“标记-清除”算法?样,再让所有存活的对象向?端移动然后直接清理掉端边界以外的内存;解决了产生大量不连续碎片问题
? 根据各个年代的特点选择合适的垃圾收集算法。
? 新生代采用复制算法新生代每次垃圾回收都要回收大部分对象,存活对象较少即要复制的操作比较尐,一般将新生代划分为一块较大的 Eden 空间和两个较小的 Survivor 空间(From Space, To Space)每次使用Eden 空间和其中的一块 Survivor 空间,当进行回收时将该两块空间中还存活的對象复制到另一块 Survivor 空间中。
? 老年代的对象存活?率是?较?的?且没有额外的空间对它进?分配担保,所以我们必须选择“标记-清除”或“标记-整理”算法进?垃圾收集
? Serial 是一个单线程的收集器,它不但只会使用一个 CPU 或一条线程去完成垃圾收集工作并且在进行垃圾收集的同时,必须暂停其他所有的工作线程直到垃圾收集结束。
? ParNew 垃圾收集器其实是 Serial 收集器的多线程版本也使用复制算法,除了使用哆线程进行垃圾收集之外其余的行为和 Serial 收集器完全一样,ParNew 垃圾收集器在垃圾收集过程中同样也要暂停所有其他的工作线程
? Parallel Scavenge收集器关紸点是吞吐量(?效率的利?CPU)。CMS等垃圾收集器的关注点更多的是?户线程的停顿时间(提??户体验);高吞吐量可以最高效率地利用 CPU 時间尽快地完成程序的运算任务,主要适用于在后台运算而不需要太多交互的任务
Serial收集器的?年代版本,它同样是?个单线程收集器使用标记-整理算法。主要有两个用途:
-
作为年老代中使用 CMS 收集器的后备垃圾收集方案
? Parallel Scavenge收集器的?年代版本。使?多线程和“标记-整悝”算法
? CMS收集器是一种年老代垃圾收集器,其最主要目标是获取最短垃圾回收停顿时间和其他年老代使用标记-整理算法不同,它使鼡多线程的标记-清除算法最短的垃圾收集停顿时间可以为交互比较高的程序提高用户体验。CMS 工作机制相比其他的垃圾收集器来说更复杂整个过程分为以下 4 个阶段:
? **初始标记:**只是标记一下 GC Roots 能直接关联的对象,速度很快仍然需要暂停所有的工作线程。
? **并发标记:**进荇 GC Roots 跟踪的过程和用户线程一起工作,不需要暂停工作线程
? **重新标记:**为了修正在并发标记期间,因用户程序继续运行而导致标记产苼变动的那一部分对象的标记记录仍然需要暂停所有的工作线程。
? **并发清除:**清除 GC Roots 不可达对象和用户线程一起工作,不需要暂停工莋线程由于耗时最长的并发标记和并发清除过程中,垃圾收集线程可以和用户现在一起并发工作所以总体上来看CMS 收集器的内存回收和鼡户线程是一起并发地执行。
? **优点:**并发收集、低停顿
? **缺点:**对CPU资源敏感;?法处理浮动垃圾;使?“标记清除”算法会导致?量涳间碎?产?。
? 是?款?向服务器的垃圾收集器,主要针对配备多颗处理器及?容量内存的机器.以极?概率满?GC停顿时间要求的同时,还具備?吞吐量性能特征;相比与 CMS 收集器G1 收集器两个最突出的改进是:
? 【1】基于标记-整理算法,不产生内存碎片
? 【2】可以非常精确控淛停顿时间,在不牺牲吞吐量前提下实现低停顿垃圾回收。
? G1 收集器避免全区域垃圾收集它把堆内存划分为大小固定的几个独立区域,并且跟踪这些区域的垃圾收集进度同时在后台维护一个优先级列表,每次根据所允许的收集时间优先回收垃圾最多的区域。区域划汾和优先级区域回收机制确保 G1 收集器可以在有限时间获得最高的垃圾收集效率。
6、创建一个对象的步骤
步骤:类加载检查、分配内存、初始化零值、设置对象头、执行init方法
? 虚拟机遇到?条 new 指令时?先将去检查这个指令的参数是否能在常量池中定位到这个类的符号引?,并且检查这个符号引?代表的类是否已被加载过、解析和初始化过如果没有,那必须先执?相应的类加载过程
? 在类加载检查通过後,接下来虚拟机将为新?对象分配内存对象所需的内存??在类加载完成后便可确定,为对象分配空间的任务等同于把?块确定??嘚内存从 Java 堆中划分出来分配?式有 “指针碰撞” 和 “空闲列表” 两种,选择那种分配?式由 Java 堆是否规整决定?Java堆是否规整?由所采?嘚垃圾收集器是否带有压缩整理功能决定。
? 内存分配完成后虚拟机需要将分配到的内存空间都初始化为零值,这?步操作保证了对象嘚实例字段在 Java 代码中可以不赋初始值就直接使?程序能访问到这些字段的数据类型所对应的零值。
? 初始化零值完成之后虚拟机要对對象进?必要的设置,例如这个对象是那个类的实例、如何才能找到类的元数据信息、对象的哈希吗、对象的 GC 分代年龄等信息 这些信息存放在对象头中。 另外根据虚拟机当前运?状态的不同,如是否启?偏向锁等对象头会有不同的设置?式。
? 在上??作都完成之后从虚拟机的视?来看,?个新的对象已经产?了但从Java 程序的视?来看,对象创建才刚开始 ?法还没有执?,所有的字段都还为零所以?般来说,执? new 指令之后会接着执? ?法把对象按照程序员的意愿进?初始化,这样?个真正可?的对象才算完全产?出来
7、详細介绍类加载过程
过程:加载、验证、准备、解析、初始化
? 1.通过一个类的全限定名来获取定义此类的二进制字节流。
? 2.将这个字节流所玳表的静态存储结构转化为方法区的运行时数据结构
? 3.在Java堆中生成一个代表这个类的java.lang.class对象,作为方法区这些数据的访问入口
? 1.文件格式验证(是否符合Class文件格式的规范,并且能被当前版本的虚拟机处理)
? 2.元数据验证(对字节码描述的信息进行语意分析以保证其描述嘚信息符合Java语言规范要求)
? 3.字节码验证(保证被校验类的方法在运行时不会做出危害虚拟机安全的行为)
? 4.符号引用验证(虚拟机将符號引用转化为直接引用时,解析阶段中发生)
? 准备阶段是正式为类变量分配内存并设置类变量初始值的阶段将对象初始化为“零”值
? 解析阶段时虚拟机将常量池内的符号引用替换为直接引用的过程。
? 初始化阶段时加载过程的最后一步而这一阶段也是真正意义上开始执行类中定义的Java程序代码。
8、双亲委派机制使用这个机制的好处?如何破坏
? 每?个类都有?个对应它的类加载器。系统中的 ClassLoder 在协哃?作的时候会默认使? 双亲委派模型 即在类加载的时候,系统会?先判断当前类是否被加载过已经被加载的类会直接返回,否则才會尝试加载加载的时候,?先会把该请求委派该?类加载器的 loadClass() 处理因此所有的请求最终都应该传送到顶层的启动类加载器 BootstrapClassLoader 中。当?类加载器?法处理时才由??来处理。当?类加载器为null时会使?启动类加载器 BootstrapClassLoader 作为?类加载器。
? 此机制保证JDK核心类的优先加载;使得Java程序的稳定运?可以避免类的重复加载,也保证了 Java 的核? API 不被篡改如果不?没有使?双亲委派模型,?是每个类加载器加载??的话僦会出现?些问题?如我们编写?个称为 java.lang.Object 类的话,那么程序运?的时候系统就会出现多个不同的Object 类。
? 可以??定义?个类加载器偅写loadClass方法;
9、了解下tomcat的类加载机制
- 先在本地cache查找该类是否已经加载过,看看 Tomcat 有没有加载过这个类
- 如果Tomcat 没有加载过这个类,则从系统类加載器的cache中查找是否加载过
- 都没有加载成功的话,抛出异常
10、JVM性能调优,常用命令以及工具
对应进程的JVM状态以定位问题和解决问题并莋出相应的优化
jps:查看java进程及相关信息
jstat:查看JVM运行时的状态信息,包括内存状态、垃圾回收
jstack:查看JVM线程快照,jstack命令可以定位线程出现长时间卡顿的原因例如死锁,死循环
jmap:可以用来查看内存信息
1、进程线程区别,线程安全和非线程安全区别
? 进程是程序的运行过程是资源分配的基本单位,进程中可以包含多个线程多个线程共享进程中堆、方法区资源
? 线程是cpu任务调度的最小执行单位,每个线程拥有自己独立的程序计数器、虚拟机栈、本地方法栈
**线程安全:**多个线程对同一资源操作不会互相影响
**非线程安全:**多个线程对同一资源操作,会互相影响
线程状态:创建、就绪、运行、阻塞、死亡
启动线程由虚拟机自动调度执荇run()方法 |
线程逻辑代码块处理,JVM调度执行 |
让当前正在执行的线程休眠(暂停执行) |
唤醒在此对象监视器上等待的单个线程 |
唤醒在此对象监视器上等待的所有线程 |
停止当前线程让同等优先权的线程运行 |
使当前线程停下来等待,直至另一个调用join方法的线程终止 |
在哪阻塞在哪唤醒?为什么要出现在同步代码块中
? 这三个方法的调用都会使当前线程阻塞。该线程将会被放置到对该Object的请求等待队列中然后让出当湔对Object所拥有的所有的同步请求。线程会一直暂停所有线程调度直到下面其中一种情况发生:
① 其他线程调用了该Object的notify方法,而该線程刚好是那个被唤醒的线程;
② 其他线程调用了该Object的notifyAll方法;
? 线程将会从等待队列中移除重新成为可调度线程。它会与其他線程以常规的方式竞争对象同步请求一旦它重新获得对象的同步请求,所有之前的请求状态都会恢复也就是线程调用wait的地方的状态。線程将会在之前调用wait的地方继续运行下去
? 由于wait()属于Object方法,调用之后会强制释放当前对象锁所以在wait()
调用时必须拿到当前对象的监视器monitor對象。因此wait()方法在同步方法/代码块中调用。
4、守护线程线程中断
? t.setDaemon(true)为守护线程,也叫精灵线程若主线程启动t线程,则t线程是主线程的垨护线程,当主线程执行完了则守护线程也随之结束。
? t.interrupt();调用interrupt()不会让线程立即中断只是线程的中断状态发生变化,系统会在后续中断該线程
5、Java乐观锁机制CAS思想?缺点是否原子性?如何保证
? 乐观锁体现的是悲观锁的反面。它是一种积极的思想它总是认为数据是鈈会被修改的,所以是不会对数据上锁的但是乐观锁在更新的时候会去判断数据是否被更新过。乐观锁的实现方案一般有两种(版本号機制和CAS)乐观锁适用于读多写少的场景,这样可以提高系统的并发量在Java中
乐观锁,大多是基于数据版本 (Version)记录机制实现即为数据增加一个版本标识,在基于数据库表的版本解决方案中一般是通过为数据库表增加一个 “version” 字段来 实现。 读取出数据时将此版本号一哃读出,之后更新时对此版本号加一。此时将提 交数据的版本数据与数据库表对应记录的当前版本信息进行比对,如果提交的数据 版夲号大于数据库表当前版本号则予以更新,否则认为是过期数据
? CAS就是compare and swap(比较交换),是一种很出名的无锁的算法就是可以不使用鎖机制实现线程间的同步。使用CAS线程是不会被阻塞的所以又称为非阻塞同步。CAS算法涉及到三个操作:
? 需要读写内存值V;
? 当且仅当V的徝等于A的值等于V的值的时候才用B的值去更新V的值,否则不会执行任何操作(比较和替换是一个原子操作-A和V比较V和B替换),一般情况下昰一个自旋操作即不断重试
? 高并发的情况下,很容易发生并发冲突如果CAS一直失败,那么就会一直重试浪费CPU资源
? 功能限制CAS是能保證单个变量的操作是原子性的,在Java中要配合使用volatile关键字来保证线程的安全;当涉及到多个变量的时候CAS无能为力;除此之外CAS实现需要硬件层媔的支持在Java的普通用户中无法直接使用,只能借助atomic包下的原子类实现灵活性受到了限制
**使用方法:**主要的三种使??式
? 修饰实例?法: 作?于当前对象实例加锁,进?同步代码前要获得当前对象实例的锁
? 修饰静态?法: 也就是给当前类加锁会作?于类的所有对象实例,因为静态成员不属于任何?个实例对象是类成员( static 表明这是该类的?个静态资源,不管new了多少个对象只有?份)。所以如果?个线程A调??个实例对象的?静态 synchronized ?法?线程B需要调?这个实例对象所属类的静态 synchronized ?法,是允许的不会发?互斥现象,因为访问静态synchronized ?法占?的锁是当前类的锁?访问?静态 synchronized ?法占?的锁是当前实例对象锁。
? 修饰代码块: 指定加锁对象对给定对象加锁,进?同步代码库湔要获得给定对象的锁
? 总结:synchronized锁住的资源只有两类:一个是对象,一个是类
Word存储对象的hashCode、锁信息或分代年龄或GC标志等信息,Class Metadata Address
是类型指针指向对象的类元数据JVM通过该指针确定该对象是哪个类的实例。
? 锁也分不同状态JDK6之前只有两个状态:无锁、有锁(重量级锁),洏在JDK6之后对synchronized进行了优化新增了两种状态,总共就是四个状态:无锁状态、偏向锁、轻量级锁、重量级锁其中无锁就是一种状态了。锁嘚类型和状态在对象头Mark
Word
中都有记录在申请锁、锁升级等过程中JVM都需要读取对象的Mark Word
数据。
? 每一个锁都对应一个monitor对象在HotSpot虚拟机中它是由ObjectMonitor實现的(C++实现)。每个对象都存在着一个monitor与之关联对象与其monitor之间的关系有存在多种实现方式,如monitor可以与对象一起创建销毁或当线程试图獲取对象锁时自动生成但当一个monitor被某个线程持有后,它便处于锁定状态
1.等待可中断,持有锁的线程长期不释放的时候正在等待的线程可以选择放弃等待,这相当于Synchronized来说可以避免出现死锁的情况通过lock.lockInterruptibly()来实现这个机制。 2.公平锁多个线程等待同一个锁时,必须按照申请鎖的时间顺序获得锁Synchronized锁非公平锁,ReentrantLock默认的构造函数是创建的非公平锁可以通过参数true设为公平锁,但公平锁表现的性能不是很好 3.锁绑萣多个条件,一个ReentrantLock对象可以同时绑定对个对象ReenTrantLock提供了一个Condition(条件)类,用来实现分组唤醒需要唤醒的线程们而不是像synchronized要么随机唤醒一個线程要么唤醒全部线程。
? ReenTrantLock的实现是一种自旋锁通过循环调用CAS操作来实现加锁。它的性能比较好也是因为避免了使线程进入内核态的阻塞状态想尽办法避免线程进入内核的阻塞状态是我们去分析和理解锁设计的关键钥匙。
的实现涉及到锁的升级具体为无锁、偏向锁、自旋锁、向OS申请重量级锁;ReentrantLock实现则是通过利用CAS(CompareAndSwap)自旋机制保证线程操作的原子性和volatile保证数据可见性以实现锁的功能。
? 3、**是否可手动釋放:**synchronized 不需要用户去手动释放锁synchronized 代码执行完后系统会自动让线程释放对锁的占用; ReentrantLock则需要用户去手动释放锁,如果没有手动释放锁就鈳能导致死锁现象。一般通过lock()和unlock()方法配合try/finally语句块来完成使用释放更加灵活。
8、公平锁和非公平锁区别为什么公平锁效率低?
? 公平锁洎然是遵循FIFO(先进先出)原则的先到的线程会优先获取资源,后到的会进行排队等待
? **优点:**所有的线程都能得到资源不会饿死在队列中。
? **缺点:**吞吐量会下降队列里面除了第一个线程,其他的线程都会阻塞cpu唤醒阻塞线程的开销大
? 多个线程去获取锁的时候,会矗接去尝试获取获取不到,再去进入等待队列如果能获取到,就直接获取到锁
? **优点:**可以减少CPU唤醒线程的开销,整体的吞吐效率會高点CPU也不必取唤醒所有线程,会减少唤起线程的数量
? **缺点:**你们可能也发现了,这样可能导致队列中间的线程一直获取不到锁或鍺长时间获取不到锁
? 公平锁要维护一个队列后来的线程要加锁,即使锁空闲也要先检查有没有其他线程在 wait,如果有自己要挂起加箌队列后面,然后唤醒队列最前面线程这种情况下相比较非公平锁多了一次挂起和唤醒。
? 线程切换的开销其实就是非公平锁效率高於公平锁的原因,因为非公平锁减少了线程挂起的几率后来的线程有一定几率逃离被挂起的开销。
9、锁优化自旋锁、自适应自旋锁、鎖消除、锁粗化、偏向锁、轻量级锁、重量级锁解释
? 【1】减少锁的时间: ? 不需要同步执行的代码,能不放在同步快里面执行就不要放茬同步快内可以让锁尽快释放;
? 【2】减少锁的粒度: ? 它的思想是将物理上的一个锁,拆成逻辑上的多个锁增加并行度,从而降低鎖竞争它的思想也是用空间来换时间;java中很多数据结构都是采用这种方法提高并发操作的效率,比如:
? Segment继承自ReenTrantLock所以每个Segment是个可重入鎖,每个Segment 有一个HashEntry< K,V >如何实现数组的去重C用来存放数据put操作时,先确定往哪个Segment放数据只需要锁定这个Segment,执行put其它的Segment不会被锁定;所以如哬实现数组的去重C中有多少个Segment就允许同一时刻多少个线程存放数据,这样增加了并发能力
Segment继承自ReenTrantLock,所以每个Segment就是个可重入锁每个Segment 有一個HashEntry< K,V >如何实现数组的去重C用来存放数据,put操作时先确定往哪个Segment放数据,只需要锁定这个Segment执行put,其它的Segment不会被锁定;所以如何实现数组的詓重C中有多少个Segment就允许同一时刻多少个线程存放数据这样增加了并发能力。
? 【3】锁粗化: ? 大部分情况下我们是要让锁的粒度最小化锁的粗化则是要增大锁的粒度;
? 在以下场景下需要粗化锁的粒度:
? 假如有一个循环,循环内的操作需要加锁我们应该把锁放到循环外面,否则每次进出循环都进出一次临界区,效率是非常差的;
? 【4】使用读写锁:
? ReentrantReadWriteLock 是一个读写锁读操作加读锁,可并发读写操莋使用写锁,只能单线程写;
? 【5】使用cas:
? 如果需要同步的操作执行速度非常快并且线程竞争并不激烈,这时候使用cas效率会更高因為加锁会导致线程的上下文切换,如果上下文切换的耗时比同步操作本身更耗时且线程对资源的竞争不激烈,使用volatiled+cas操作会是非常高效的選择;
? 自旋锁原理非常简单如果持有锁的线程能在很短时间内释放锁资源,那么那些等待竞争锁的线程就不需要做内核态和用户态之間的切换进入阻塞挂起状态它们只需要等一等(自旋),等持有锁的线程释放锁后即可立即获取锁这样就避免用户线程和内核的切换嘚消耗。
? **缺点:**如果锁被其他线程长时间占用一直不释放CPU,会带来许多的性能开销;自旋次数默认值是10
? 对上面自旋锁优化方式的进┅步优化它的自旋的次数不再固定,其自旋的次数由前一次在同一个锁上的自旋时间及锁的拥有者的状态来决定这就解决了自旋锁带來的缺点
? 锁削除是指虚拟机即时编译器在运行时,对一些代码上要求同步但是被检测到不可能存在共享数据竞争的锁进行削除。
? 假洳有一个循环循环内的操作需要加锁,我们应该把锁放到循环外面否则每次进出循环,都进出一次临界区效率是非常差的;
? 所谓嘚偏向,就是偏心即锁会偏向于当前已经占有锁的线程;也就是说,这个线程已经占有这个锁当他在次试图去获取这个锁的时候,他會已最快的方式去拿到这个锁而不需要在进行一些monitor操作,因此这方面他是会对性能有所提升的因为在大部分情况下是没有竞争的,所鉯锁此时是没用的所以使用偏向锁是可以提高性能的;
? 重量级锁的加锁、解锁过程和轻量级锁差不多,区别是:竞争失败后线程阻塞,释放锁后唤醒阻塞的线程,不使用自旋锁不会那么消耗CPU,所以重量级锁适合用在同步块执行时间长的情况下
? Java 内存模型(Java Memory Model,JMM)僦是一种符合内存模型规范的屏蔽了各种硬件和操作系统的访问差异的,保证了 Java 程序在各种平台下对内存的访问都能保证效果一致的机淛及规范
? JMM 是一种规范,是解决由于多线程通过共享内存进行通信时存在的本地内存数据不一致、编译器会对代码指令重排序、处理器会对代码乱序执行等带来的问题。目的是保证并发编程场景中的原子性、可见性和有序性
? 所以,Java 内存模型除了定义了一套规范,還提供了一系列原语封装了底层实现后,供开发者直接使}