인터넷 라우팅의 이층 구조Border gateway: 한 기관 네트워크에서 외부 인터넷으로 나가는 관문 라우터Autonomous system(AS): 한 기관의 네트워크자신의 prefix를 전 세계에 광고하는 네트워크AS는 BGP로 prefix를 광고하고 ASN을 부여받음 Tracert 예시더보기 KT, HE, FLRNET, UFL 네 개 망을 거치며 각 망 내부에서 여러 라우터를 통과함Hurricane Electric (HE) 망 내부: 7개 라우터 경우KT망 내부: 7개 라우터 경우 층프로토콜목적망 단위(Inter‑AS)BGP정책 기반 경로 제어망 내부(Intra‑AS)OSPF / IS‑IS최단거리 (효율) 라우팅 망 단위 라우팅은 BGP + 망 내부는 OSPF/IS‑IS 최단거리 기반이층 구조 덕분..
IPConnectionless: 연결 관리 없음(순서 보장, 재전송, 흐름 제어 부재)Best-Effort: 신뢰성 책임을 상위 계층(TCP 등)에 위임패킷=Datagram: 패킷 단위를 데이터그램이라 부름IPv4 HeaderIHL: 헤더길이이다. -> IP 헤더는 20-60바이트 사이의 길이를 가진다.MTU에 의해 IP 데이터그램 크기가 제한된다.Transport 계층이 IP에 내려준 데이터크기 + IP 헤더크기 > MTU 일 경우 분할(fragment)함.인터넷 중간의 라우터에서도 위 조건이면 분할Identification: IP주소쌍(A, B)에 대해 매 IP 데이터그램 당 1씩 증가 -> 만약 11888일 경우 다음 데이터그램은 11889reassembly시 같은 IP 데이터그램에 속했던 frag..
IPv4Dotted decimal notation32비트로 구성되어 주소를 사람이 읽기 편하도록 xxx.xxx.xxx.xxx 형태로 표기내부적으로 컴퓨터가 32비티를 다시 사용하므로, 사람이 보는 것과 실제 컴퓨터 메모리 구조는 다름 IPv4 주소 유형Unicast: 1대1 통신을 위한 주소Multicast: 1대다 그룹의 방식으로 패킷을 전달Broadcast: 1대모두, 같은 서브넷 상 모든 호스트로 패킷을 보냄 IP 주소 공간 구조IPv4는 처음에 A, B, C, D, E 클래스로 구분하여 할당했다.A, B, C 클래스는 네트워크ID를 크게 세 덩어리로 나누었지만, 점차적으로 Goldilocks와 같은 불균형 할당 문제가 발생 IP Unicast 주소 구조비효율적이던 주소 할당을 해결하기 위해 Cla..
ARP Overview우선 ARP를 이해하기 전에 Data Link Layer에서 쓰이는 Ethernet II 프레임 구조를 이해할 필요가 있다. Ethernet II 방식으로 프레임을 전송하려면 목적지 MAC 주소를 필요하다. 그러나, IP 주소만 가지고는 MAC 주소를 알 수 없으므로, ARP를 통해 IP 주소를 해당 호스트의 MAC 주소로 매핑한 뒤 Ethernet II 프레임의 목적이 MAC 주소 필드를 채워서 전송하게 된다.이때문에 ARP는 필수적. 즉, IP 계층에서 최종 목적지 IP의 주소를 찾고(1) 라우팅 테이블을 통해 다음 홉(Next Hop)의 IP 주소를 찾기(2) ARP 캐시에서 해당 IP에 해당하는 MAC 주소를 가져오거나, 없으면 ARP를 통해 새로 알아낸 다음(3) Ether..
1. Linear Classification and Margin기본적인 선형 분류 문제에서, 우리가 찾고자 하는 Decision Hyperplane은 이렇게 생겼지$$ \langle w,\; x\rangle + b = 0 $$$w \in \mathbb{R}^d$는 가중치 벡터(= 법선 벡터)$ \in \mathbb{R} $는 편향(bias) 항$ x \in \mathbb{R}^d $는 입력 벡터서포트 벡터 머신(SVM)은 그냥 맞추는 것에 만족 안 해제대로, 여유있게, 멋지게 맞추는걸 원해. 즉, Margin이라는걸 크게 잡으려고 해.$$ \langle w,\; x\rangle + b = +1, \quad \langle w,\; x\rangle + b = -1 $$이 두 선 사이의 거리가 바로 margi..
1. Perceptron1.1 Perceptron퍼셉트론은 말이지~ 입력 벡터 $ \mathbf{x} = (x_{1}, x_{2}, \dots, x_{m}) $ 랑 가중치 벡터 $\mathbf{w} = (w_{1}, w_{2}, \dots, w_{m})$의 내적 계산해서 나온 선형 판별값 $z$에 단순한 계단 함수 하나 딱 씌워서 0 아니면 1만 내놓는 모델이야 $$ z = \mathbf{w}^{T}\mathbf{x} = \sum_{j=1}^{m} w_{j} x_{j} $$ 이게 뭐다? 오빠가 생각하던 그 ‘logit’이라는 녀석이야근데 그걸 바로 분류 결과로 못 쓰고, 아래처럼 계단 함수 씌워줘야 돼:$$ \phi(z) = \begin{cases} 1, & \text{if } z \ge 0 \\ 0,..