반응형

TrueNAS에서 iSCSI 볼륨을 마운트한 상태에서 Windows에서도 동시에 마운트할 수 있는가?

결론: iSCSI는 여러 장치에서 동시에 마운트할 수 없음.
하지만, TrueNAS에서 마운트한 후 NFS/SMB로 공유하면 Windows에서도 접근 가능함.


1. iSCSI의 기본 동작 방식

  • iSCSI는 블록 레벨 스토리지이므로, 마운트하는 OS에서 "로컬 디스크"처럼 인식됨.
  • Windows나 Linux에서 iSCSI LUN을 마운트하면 파일 시스템을 직접 관리하게 됨.
  • 하지만, 같은 LUN을 여러 시스템에서 동시에 마운트하면 파일 시스템 충돌이 발생할 수 있음.

즉, iSCSI는 다중 클라이언트에서 동시에 사용할 수 없음!


2. 왜 iSCSI를 동시에 마운트하면 안 되나?

🔹 파일 시스템 충돌 문제

  • iSCSI는 "하드디스크"와 같기 때문에, 마운트한 OS에서만 파일 시스템을 관리할 수 있음.
  • 같은 LUN을 Windows와 TrueNAS에서 동시에 마운트하면 파일 시스템이 꼬일 위험이 큼.
  • 한쪽에서 파일을 변경하면, 다른 쪽에서는 이를 알지 못해서 데이터 손실이 발생할 수 있음.

📌 예제 (잘못된 경우)
1️⃣ TrueNAS에서 iSCSI LUN을 마운트 (ZFS로 포맷됨)
2️⃣ Windows에서도 같은 iSCSI LUN을 마운트 (NTFS로 포맷하려고 시도함)
3️⃣ 파일 시스템이 충돌하면서 데이터 손실 발생 가능!

iSCSI는 "파일 단위" 공유가 아니라 "디스크 자체"를 공유하는 방식이므로, 한 번에 하나의 OS에서만 마운트해야 함.


3. 해결 방법: TrueNAS에서 NFS/SMB 공유하기

iSCSI는 TrueNAS에서 마운트하고, Windows는 NFS/SMB로 접근하면 해결됨!

📌 올바른 구성 방법 1️⃣ TrueNAS에서 iSCSI LUN을 마운트 (ex: /mnt/iscsi_volume)
2️⃣ TrueNAS에서 해당 경로를 NFS 또는 SMB로 공유
3️⃣ Windows에서는 NFS 또는 SMB를 이용해 접속

📌 TrueNAS에서 iSCSI 볼륨을 마운트한 후 NFS 공유 설정 (CLI 예제)

# iSCSI LUN을 마운트한 디렉토리 예시
mkdir -p /mnt/iscsi_volume

# NFS 서버 활성화
service nfs-server enable
service nfs-server start

# NFS 공유 설정
echo "/mnt/iscsi_volume *(rw,sync,no_root_squash)" >> /etc/exports
exportfs -a
service nfs-server restart

이제 Windows에서 NFS로 접근 가능!

📌 Windows에서 NFS 접속 방법

# NFS 드라이브를 네트워크 드라이브로 연결
mount -o anon \\192.168.1.100\mnt\iscsi_volume Z:

이제 iSCSI 데이터가 Windows에서도 사용 가능함.


4. 만약 iSCSI를 다중 접속해야 한다면?

iSCSI는 기본적으로 단일 호스트만 마운트할 수 있음.
하지만, 클러스터 파일 시스템(ex: VMFS, OCFS2, GFS2)을 사용하면 다중 OS에서 동시에 iSCSI를 마운트할 수 있음.

📌 다중 접속이 가능한 방법 1️⃣ VMware ESXi + VMFS (가상 머신 저장소용)
2️⃣ Linux + GFS2 또는 OCFS2 (고급 클러스터 환경)

하지만, 일반적인 환경에서는 TrueNAS에서 iSCSI를 마운트하고, NFS/SMB로 공유하는 것이 가장 안전함.


5. 결론

iSCSI는 여러 OS에서 동시에 마운트할 수 없음.
TrueNAS에서 iSCSI LUN을 마운트하고, Windows에서는 NFS/SMB를 통해 접근하면 해결 가능.
클러스터 파일 시스템(VMFS, GFS2, OCFS2)을 사용하면 다중 접속이 가능하지만, 일반 환경에서는 추천되지 않음.
Windows에서 직접 iSCSI LUN을 마운트하는 대신, TrueNAS가 iSCSI를 관리하고 Windows는 NFS/SMB로 사용하는 것이 최적의 방법.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

iSCSI LUN에 저장된 파일을 NFS처럼 외부에서 접근할 수 있는지?

iSCSI는 블록 스토리지이므로, 직접 파일을 NFS처럼 공유할 수 없음.
✅ 하지만, iSCSI LUN을 마운트한 서버에서 NFS 또는 SMB 공유를 설정하면 가능함.


1. iSCSI는 기본적으로 "파일 공유"가 아님

  • iSCSI는 NFS나 SMB와 다르게 파일 단위가 아니라 블록 단위로 스토리지를 제공함.
  • 예를 들어, iSCSI LUN을 Windows에서 마운트하면 해당 드라이브는 NTFS로 포맷된 로컬 디스크처럼 동작함.
  • 따라서 이 LUN 자체를 네트워크 공유하려면 추가적인 설정이 필요함.

2. iSCSI LUN을 공유하는 방법 (NFS 또는 SMB를 이용)

🔹 방법 1: iSCSI LUN을 서버에 마운트하고, NFS/SMB로 공유하기

1️⃣ iSCSI LUN을 특정 서버 (예: TrueNAS, Ubuntu, Windows)에 연결
2️⃣ 서버에서 해당 스토리지를 NFS 또는 SMB로 공유 설정
3️⃣ 외부 장치(스마트폰, 노트북 등)에서 NFS 또는 SMB로 접속

결과적으로, 외부 기기는 iSCSI를 직접 접속하는 것이 아니라, NFS/SMB를 통해 공유된 파일에 접근하는 방식이 됨.

📌 예제: iSCSI LUN을 마운트한 후, NFS로 공유하는 방법 (Linux 서버 기준)

# 1. iSCSI LUN 마운트
iscsiadm -m node --targetname iqn.2025-01.mystorage:lun1 --portal 192.168.1.100 --login
mount /dev/sdb1 /mnt/iscsi_storage

# 2. NFS 서버 설치
apt install nfs-kernel-server -y

# 3. NFS 공유 설정
echo "/mnt/iscsi_storage *(rw,sync,no_root_squash)" >> /etc/exports
exportfs -a
systemctl restart nfs-kernel-server

이제 다른 장치에서 NFS로 접속 가능함!
➡ 핸드폰에서는 "X-plore" 같은 앱을 사용하면 NFS 공유 파일을 쉽게 접근할 수 있음.

📌 Windows에서 공유하고 싶은 경우:

  • iSCSI LUN을 마운트한 후, 해당 폴더를 SMB(네트워크 공유)로 설정하면 됨.
  • 스마트폰에서는 "CX 파일 탐색기" 또는 "ES 파일 탐색기" 같은 앱을 사용하여 접근 가능.

3. iSCSI LUN을 직접 NFS처럼 공유할 수는 없는 이유

  • iSCSI는 블록 스토리지이므로, 파일을 직접 다루는 것이 아니라 OS에서 "하드디스크"처럼 사용하는 방식임.
  • 반면, NFS는 파일 단위로 공유되므로 여러 사용자가 동시에 접근 가능함.
  • 따라서, iSCSI를 직접 핸드폰에서 접근하는 것은 불가능하지만, iSCSI를 마운트한 서버를 거쳐 NFS나 SMB로 공유하면 해결 가능함.

4. 결론

iSCSI LUN을 스마트폰에서 직접 접근할 수는 없음.
하지만, iSCSI LUN을 서버에 마운트한 후, NFS 또는 SMB로 공유하면 스마트폰에서도 접근 가능함.
즉, "iSCSI → 서버 → NFS/SMB → 스마트폰" 방식으로 사용해야 함.
이 방법을 사용하면, PC에서는 iSCSI로 빠르게 접속하고, 핸드폰에서는 NFS/SMB로 쉽게 파일을 공유할 수 있음.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

iSCSI에 대한 상세 설명

1. iSCSI란 무엇인가?

iSCSI(Internet Small Computer System Interface)는 SCSI 명령을 TCP/IP 네트워크를 통해 전송하여 원격 스토리지를 로컬 디스크처럼 사용할 수 있도록 하는 스토리지 프로토콜이다.

즉, 일반적인 NAS(Network Attached Storage) 방식(SMB, NFS)과 달리, 네트워크를 통해 원격 디스크를 직접 마운트하여 로컬 블록 스토리지처럼 동작하게 만드는 기술이다.

💡 쉽게 말해:

  • SMB/NFS → 파일 단위(File-Level) 공유
  • iSCSI → 블록 단위(Block-Level) 공유 (로컬 디스크처럼 동작)

📌 iSCSI의 주요 특징:

  1. TCP/IP 기반이므로 기존 네트워크 인프라(이더넷)를 활용할 수 있음.
  2. SCSI 명령어를 encapsulation(캡슐화)하여 네트워크로 전송.
  3. OS에서 로컬 디스크로 인식되므로, 일반 HDD/SSD와 동일한 방식으로 사용할 수 있음.
  4. 스토리지 프로토콜 중에서 가장 범용성이 높고, 네트워크 기반 SAN(Storage Area Network)에서 많이 사용됨.

✅ iSCSI는 과거 데이터센터에서 SAN(Storage Area Network) 구축 시 광채널(Fibre Channel)보다 저렴한 대안으로 많이 사용되었음.
✅ 현재도 고성능 NAS나 가상화 환경(VMware, Proxmox, Hyper-V)에서 블록 스토리지 공유 용도로 여전히 널리 활용됨.


2. iSCSI의 구조 및 동작 방식

iSCSI는 크게 두 가지 역할로 나뉜다.

  • iSCSI Initiator (클라이언트): iSCSI Target에 연결하여 원격 디스크를 마운트하는 장치 (예: Windows/Linux PC, Hypervisor)
  • iSCSI Target (서버): iSCSI Initiator에게 스토리지를 제공하는 장치 (예: TrueNAS, Windows Server, SAN 장비)

📌 iSCSI 데이터 전송 과정:

  1. iSCSI Initiator가 Target에 연결 요청을 보냄.
  2. TCP/IP 기반으로 SCSI 명령을 캡슐화하여 전송.
  3. iSCSI Target이 명령을 받아 원격 스토리지 블록을 제공.
  4. Initiator는 이를 로컬 디스크처럼 사용하며 파일 시스템(FAT, NTFS, EXT4 등)으로 마운트.

💡 결과적으로:
➡ 네트워크를 통해 원격 스토리지를 직접 로컬 디스크처럼 사용 가능
➡ 네트워크 레벨에서 동작하는 블록 스토리지 방식


3. iSCSI vs SMB vs NFS – 성능 및 비교

구분 iSCSI (블록 레벨) SMB (파일 레벨) NFS (파일 레벨)
사용 방식 OS에서 로컬 디스크처럼 인식 네트워크 공유 폴더 네트워크 공유 폴더
프로토콜 계층 블록 단위 I/O (SCSI) 파일 단위 I/O 파일 단위 I/O
속도 가장 빠름 (CPU 부하 적음) 상대적으로 느림 (파일 단위) 중간 (파일 단위)
지연시간 (Latency) 가장 낮음 (0.20.5ms) 상대적으로 높음 (~1ms 이상) 중간 (0.51ms)
CPU 사용량 낮음 (네트워크 처리만 필요) 중간 (파일 접근 권한, 메타데이터 처리) 높음 (파일 메타데이터 + 락 처리)
멀티유저 동시 접속 제한적 (1:1 연결) 다수 동시 접속 가능 다수 동시 접속 가능
장점 높은 성능, 낮은 지연시간, 로컬 디스크처럼 사용 가능 광범위한 호환성, Windows에서 기본 지원 Linux 환경에서 빠르고 효율적
단점 설정이 복잡함, 여러 클라이언트가 동일 디스크를 공유할 수 없음 파일 단위라 속도가 제한됨 SMB보다 설정이 어려움

 

📌 성능 측면에서 보면:
✅ iSCSI는 네트워크를 통해 SCSI 명령을 직접 처리하므로 파일 단위 공유 방식(SMB, NFS)보다 속도가 빠르고, I/O 지연이 적음.
✅ SMB와 NFS는 파일 단위 접근 방식이라, 메타데이터 처리, 파일 락킹 등으로 인해 오버헤드가 발생하여 성능이 낮아질 수 있음.

💡 결론:
SMB는 파일 공유에 적합
NFS는 리눅스 기반 서버에서 유용
iSCSI는 고성능 블록 스토리지가 필요할 때 가장 적합


4. PC방 노하드 시스템과 iSCSI – 왜 느릴까?

과거 PC방에서 iSCSI 기반 "노하드 시스템"이 널리 사용되었지만, 일반적으로 느린 성능을 보였음.

📌 노하드 시스템이 느렸던 이유:

  1. 저속 네트워크 사용 (1Gbps 환경이 일반적)
    • 1GbE(125MB/s)에서는 OS 부팅 및 게임 실행 시 병목 발생.
    • OS 부팅 시 수십~수백 개의 클라이언트가 동시에 I/O 요청을 보내면서 속도가 저하됨.
  2. 스토리지 성능 부족
    • 당시 사용된 SATA HDD나 SSD의 IOPS(입출력 성능)가 부족하여 병목 발생.
    • RAID 설정이 비효율적이거나 캐싱이 부족하여 성능 저하.
  3. 대규모 동시 요청 처리 어려움
    • iSCSI는 1:1 연결이 기본 구조이므로, 다수의 클라이언트가 동시에 접속하면 트래픽이 과부하됨.

💡 하지만 최근 10GbE 이상 환경에서는 iSCSI도 충분히 빠름.


5. iSCSI를 사용할 때 성능을 극대화하는 방법

iSCSI의 성능을 최대한 활용하려면 네트워크 및 스토리지 최적화가 필수다.

📌 최적화 방법:
10GbE 이상 네트워크 사용 (1GbE는 속도 병목 발생)
MTU 설정 (Jumbo Frame 활성화, 9000으로 설정)
Flow Control 비활성화, NIC에서 RSS/TSO 활성화
NVMe SSD 캐시 적용 (HDD는 속도 한계가 있음)
iSCSI LUN을 SSD RAID로 구성하여 성능 극대화
Direct Access Mode 사용 (Windows iSCSI Initiator 설정에서 설정 가능)

➡ 이렇게 설정하면 로컬 NVMe SSD에 가까운 성능을 제공할 수 있음.


6. 결론 – 현재도 iSCSI가 가장 빠른가?

파일 공유라면 SMB/NFS가 더 유용하지만, 블록 단위 스토리지 성능이 중요할 경우 iSCSI가 여전히 최적의 솔루션.
특히, 10GbE 이상 네트워크와 SSD 스토리지 환경에서는 iSCSI의 성능이 매우 뛰어남.
반면, 1GbE 환경에서는 SMB/NFS와 큰 차이가 없으며, 설정이 잘못되면 속도가 오히려 낮아질 수 있음.
과거 PC방 노하드 시스템이 느렸던 이유는 네트워크 및 스토리지 병목 때문이며, 현재의 10GbE + SSD 환경에서는 충분히 고속으로 동작 가능.

결론적으로, 현재도 고성능 네트워크 스토리지가 필요하다면 iSCSI는 SMB/NFS보다 빠른 선택지! 🚀

 

 

 

 

설명에 사용된 용어 정리 및 iSCSI 관련 추가 설명


1. MTU (Maximum Transmission Unit) 설정

  • MTU란?
    네트워크에서 **한 번에 전송할 수 있는 최대 패킷 크기(Byte 단위)**를 의미함.
    • 일반적으로 이더넷의 기본 MTU는 1500바이트로 설정됨.
    • iSCSI, SMB Direct, RDMA 등의 고속 데이터 전송에서는 MTU를 9000으로 설정하여 더 큰 패킷을 한 번에 전송할 수 있음.
  • MTU 설정의 효과:
    • MTU가 크면, 더 적은 패킷 수로 동일한 데이터를 전송할 수 있어 CPU 부하가 감소하고 속도가 향상됨.
    • 하지만, MTU 설정이 네트워크의 모든 장치에서 동일하게 적용되지 않으면 패킷 단편화(fragmentation)가 발생하여 성능이 오히려 저하될 수 있음.

📌 MTU 설정 방법 (Windows/Linux 예시)

# Linux에서 MTU 9000으로 설정
ip link set eth0 mtu 9000
# Windows에서 MTU 확인 및 설정
netsh interface ipv4 show subinterfaces
netsh interface ipv4 set subinterface "Ethernet" mtu=9000 store=persistent

2. Jumbo Frame

  • Jumbo Frame이란?
    • 기본적으로 이더넷 패킷은 1500바이트(MTU 1500)까지 전송할 수 있지만, Jumbo Frame을 활성화하면 최대 9000바이트까지 증가시킬 수 있음.
    • MTU가 9000이면, 패킷 크기가 커져서 한 번에 더 많은 데이터를 보낼 수 있음.
  • Jumbo Frame의 장점:
    • 패킷 수 감소 → CPU 부하 감소 → 네트워크 효율 증가
    • 대량의 데이터 전송(iSCSI, SMB, NFS, 10GbE 환경 등)에서 성능 향상
  • Jumbo Frame 사용 시 주의점:
    • 네트워크의 모든 장치(스위치, 라우터, 서버, 클라이언트)에서 동일한 설정이 필요함.
    • 하나라도 설정이 다르면 패킷 단편화(fragmentation) 문제가 발생하여 성능이 저하될 수 있음.

📌 Jumbo Frame 활성화 방법 (Windows 예시)

# 네트워크 인터페이스 MTU 9000으로 설정
netsh interface ipv4 set subinterface "Ethernet" mtu=9000 store=persistent

📌 Jumbo Frame 활성화 방법 (Linux 예시)

ip link set eth0 mtu 9000

3. Flow Control (흐름 제어, FC)

  • Flow Control이란?
    네트워크에서 송신 속도를 조절하여 수신 측이 데이터를 감당할 수 있도록 하는 기능.
    • 네트워크 트래픽이 과부하 상태가 되면 송신 측이 전송 속도를 줄이도록 제어함.
    • 일반적으로 스위치와 네트워크 카드(NIC)에서 활성화할 수 있음.
  • Flow Control의 문제점:
    • 대역폭이 큰 환경(10GbE 이상)에서는 Flow Control이 오히려 성능 저하를 유발할 수 있음.
    • iSCSI, SMB Direct 등의 고속 네트워크 환경에서는 Flow Control을 비활성화하는 것이 일반적임.

📌 Flow Control 비활성화 방법 (Windows 예시)

  1. 장치 관리자 → 네트워크 어댑터 → 속성
  2. 고급(Advanced) 탭 → "Flow Control"을 "Disabled"로 변경

📌 Flow Control 비활성화 방법 (Linux 예시)

ethtool -A eth0 rx off tx off

4. RSS (Receive Side Scaling) / TSO (TCP Segmentation Offload)

RSS (Receive Side Scaling):

  • 다중 CPU 코어를 활용하여 네트워크 트래픽을 병렬 처리하는 기술
  • 기본적으로 네트워크 트래픽은 단일 CPU 코어에서 처리되는데, RSS를 활성화하면 여러 코어에서 동시에 처리하여 성능을 높일 수 있음.

TSO (TCP Segmentation Offload):

  • 패킷을 작은 단위로 나누는 작업을 CPU가 아닌 네트워크 카드(NIC)에서 처리하도록 하는 기술
  • CPU 부하를 줄이고 네트워크 성능을 향상시킬 수 있음.

📌 RSS/TSO 활성화 방법 (Windows 예시)

  1. 장치 관리자 → 네트워크 어댑터 → 속성 → 고급(Advanced)
  2. "Receive Side Scaling" 옵션을 "Enabled"로 변경
  3. "TCP Segmentation Offload" 옵션을 "Enabled"로 변경

📌 RSS/TSO 활성화 방법 (Linux 예시)

ethtool -K eth0 rx on tx on tso on gso on

5. iSCSI LUN (Logical Unit Number)

  • iSCSI LUN이란?
    • iSCSI Target에서 클라이언트(Initiator)에게 제공하는 블록 스토리지 단위
    • 하나의 LUN은 하나의 논리적 디스크(Logical Volume)처럼 동작

📌 예제:

  • 10TB의 스토리지가 있는 iSCSI 서버에서,
    • 5TB를 LUN 1로 설정 → Windows 서버에서 사용
    • 3TB를 LUN 2로 설정 → Linux 서버에서 사용
    • 2TB를 LUN 3으로 설정 → VMware에서 사용

➡ 클라이언트 입장에서는 LUN이 하나의 독립적인 로컬 디스크처럼 보임.


6. iSCSI는 꼭 전용 용량을 할당해야 하나?

iSCSI는 기본적으로 "블록 스토리지"이므로, 반드시 특정 용량을 LUN으로 할당해야 함.
✅ 즉, NFS처럼 하나의 스토리지 전체를 공유하는 방식이 아님.

📌 차이점 비교:

구분 iSCSI (블록 스토리지) NFS (파일 스토리지)
데이터 접근 방식 블록 단위 (Raw Disk) 파일 단위 (Shared Folder)
사용 방식 OS에서 로컬 디스크처럼 마운트 네트워크 공유 폴더로 사용
멀티 클라이언트 지원 제한적 (1:1 연결이 기본) 다중 클라이언트 접근 가능
유연성 정해진 용량만큼 LUN 할당 필요 전체 스토리지를 공유 가능

 

➡ iSCSI는 블록 단위 접근이므로, 특정 용량을 LUN으로 할당해야 사용 가능.
➡ 반면, NFS는 스토리지 전체를 공유할 수 있으며, 여러 사용자가 동시에 접근 가능.

📌 iSCSI를 유연하게 사용하는 방법:

  1. Thin Provisioning 사용 → 필요할 때만 실제 공간을 차지하도록 설정
  2. LVM(Logical Volume Manager)과 조합하여 관리

결론

MTU & Jumbo Frame → 네트워크 패킷 크기 조절하여 성능 최적화
Flow Control 비활성화 → 고속 네트워크 환경에서 오버헤드 방지
RSS/TSO 활성화 → 네트워크 트래픽 처리 최적화
iSCSI LUN → 특정 용량을 할당하여 사용
iSCSI는 블록 단위 스토리지이므로, NFS처럼 전체 공유는 불가능

iSCSI는 성능이 뛰어나지만, 블록 스토리지 방식이라 반드시 용량을 지정해서 할당해야 함.
NFS처럼 자유롭게 공유하고 싶다면, 대신 SMB/NFS를 사용하는 것이 더 적절함.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

40GbE NIC – Mellanox vs. Intel 비교

40GbE(40 Gigabit Ethernet) 네트워크 인터페이스 카드(NIC) 중에서 Mellanox와 Intel 제품의 차이점을 분석하고, 어떤 제품이 더 나은 선택인지 설명하겠습니다.


🔹 1. Mellanox와 Intel의 NIC 개요

1) Mellanox 40GbE NIC

Mellanox는 고성능 네트워크 및 HPC(고성능 컴퓨팅) 분야에서 강력한 성능을 제공하는 NIC를 만드는 회사로, **NVIDIA에 인수(2020년)**된 이후에도 계속해서 데이터센터와 클라우드 시장에서 중요한 역할을 하고 있습니다.

  • 대표적인 모델: Mellanox ConnectX-3, ConnectX-4, ConnectX-5
  • InfiniBand & Ethernet 지원 가능 (특정 모델)
  • 저지연(Low Latency)RDMA (Remote Direct Memory Access) 지원
  • 가격이 비교적 저렴하며 중고 제품도 많음

2) Intel 40GbE NIC

Intel은 NIC 시장에서 신뢰성이 높은 기업으로, 서버 및 데이터센터 환경에서 기업용 인증 및 호환성이 뛰어난 제품을 제공합니다.

  • 대표적인 모델: Intel XL710, X710, X722
  • 서버 및 엔터프라이즈 환경에 최적화
  • 다양한 가상화 기능 지원 (SR-IOV, VMDq, iWarp RDMA 등)
  • Mellanox보다 비싼 편 (기업용 장비라서 지원이 광범위함)

Mellanox는 고성능을 중점으로 하며, Intel은 안정성과 호환성을 강조하는 차이가 있음.


🔹 2. Mellanox vs. Intel 40GbE NIC – 성능 비교

항목 Mellanox Intel

성능 고성능, 저지연 (RDMA 지원) 안정성 중심, 기업 환경 최적화
호환성 Linux, Windows, VMware 지원 기업용 OS 및 서버와 완벽한 호환성
RDMA 지원 네이티브 RDMA 지원 ❌ iWarp 기반, 성능 낮음
가상화 지원 SR-IOV 지원, OpenStack 호환 SR-IOV, VMDq 지원
가격 비교적 저렴 (중고 포함) 비쌈 (기업 환경 최적화)
전력 소비 낮음 (58W) 높음 (~10W 이상)

🔹 3. 주요 차이점 분석

1) 성능 & 지연시간 (Latency)

  • Mellanox는 RDMA (Remote Direct Memory Access) 지원으로 초저지연(Low Latency) 전송이 가능.
  • Intel은 RDMA 지원이 없거나 제한적이므로 Mellanox에 비해 네트워크 대역폭 활용도가 떨어짐.
  • Mellanox는 HPC(고성능 컴퓨팅), AI 서버, 클라우드 환경에서 최적.

RDMA가 필요한 환경이라면 Mellanox가 우세.

2) 가상화(Virtualization) & 데이터센터 환경

  • Intel은 SR-IOV, VMDq, iWarp RDMA 등의 기술로 VMware, Hyper-V 등과 최적화됨.
  • Mellanox도 SR-IOV 지원, OpenStack과 호환 가능하지만, 일부 기업용 환경에서는 Intel이 더 안정적임.

VMware, Hyper-V 기반 가상화 환경에서는 Intel이 더 적합.

3) 호환성 & 드라이버 지원

  • Intel NIC는 윈도우 및 리눅스 서버에서 거의 모든 환경과 완벽 호환.
  • Mellanox는 리눅스 환경에서 강점이 있으며, 일부 OS에서는 드라이버 설치가 필요할 수 있음.

일반 서버 및 기업 환경에서는 Intel이 더 쉬운 선택.

4) 가격 차이

  • Mellanox는 중고 시장에서도 많이 유통되며 가격이 저렴함.
  • Intel NIC는 신품이 비싸고 중고도 비교적 비싼 편.

비용 절감을 원하면 Mellanox가 더 경제적.


🔹 4. 어떤 제품을 선택해야 할까?

Mellanox가 적합한 경우

✔ HPC(고성능 컴퓨팅), AI 서버, 데이터 분석 클러스터 구축
RDMA를 활용한 초저지연 네트워크가 필요한 경우
✔ Linux/OpenStack 기반의 클라우드 환경
가격이 저렴한 40GbE NIC가 필요할 때

Intel이 적합한 경우

✔ 엔터프라이즈(기업용) 서버 & 데이터센터 구축
VMware, Hyper-V, Windows Server와의 호환성이 중요한 경우
장기적인 호환성 & 지원이 필요한 기업 환경
✔ 신뢰성과 안정성이 중요한 경우


🔹 5. 결론 – Mellanox vs. Intel 40GbE NIC 선택 기준

1️⃣ 성능(RDMA) & 저지연이 중요하면 → Mellanox
2️⃣ 엔터프라이즈 안정성 & 호환성이 중요하면 → Intel
3️⃣ 비용 절감이 필요하면 → Mellanox

일반적인 서버 환경에서는 Intel, 고성능 & 저지연이 중요한 환경에서는 Mellanox가 유리.
중고로 구매한다면 Mellanox가 가성비가 훨씬 뛰어남.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

10Gbps SFP+ 케이블로 40GbE 연결이 가능한가?

인터넷 쇼핑몰에서 판매하는 10Gbps SFP+ DAC (Direct Attach Cable) 또는 광케이블40GbE (40GBASE) 연결에 사용할 수 있는지에 대해 자세히 설명해 드리겠습니다.


🔹 1. SFP+와 QSFP+ 인터페이스 차이점

40GbE를 연결하려면 SFP+ (10Gbps) 모듈이 아니라 QSFP+ (40Gbps) 모듈을 사용해야 합니다.
10GbE와 40GbE는 물리적인 커넥터와 데이터 전송 방식이 다르므로 10GbE용 케이블을 그대로 40GbE에 사용할 수 없습니다.

속도 인터페이스 커넥터 타입 주요 용도

10GbE SFP+ SFP+ DAC, SFP+ 광모듈 (LC 커넥터) 서버 간 10GbE 연결
40GbE QSFP+ QSFP+ DAC, QSFP+ 광모듈 (MTP/MPO 커넥터) 서버, 스위치 간 40GbE 연결

결론: SFP+ 케이블은 QSFP+ 포트에 직접 사용할 수 없음.


🔹 2. SFP+ DAC와 QSFP+ DAC의 차이

1) 10GbE SFP+ DAC 케이블 (Direct Attach Copper)

  • 일반적으로 10Gbps 전용이며, SFP+ 포트에서만 사용 가능
  • 물리적으로 QSFP+ 포트와 호환되지 않음 (포트 크기와 핀 배열이 다름)

2) 40GbE QSFP+ DAC 케이블

  • 40GbE 전용으로, QSFP+ 포트에서만 사용 가능
  • 내부적으로 **4개의 10Gbps 채널(4 x 10Gbps = 40Gbps)**로 동작

결론: 10GbE SFP+ DAC는 40GbE QSFP+ 포트에서 사용할 수 없음.
➡ 40GbE를 위한 QSFP+ DAC 케이블을 구매해야 함.


🔹 3. 40GbE 연결을 위한 옵션

40GbE를 제대로 연결하려면 QSFP+ 모듈과 적절한 케이블이 필요합니다. 사용할 수 있는 케이블 옵션은 다음과 같습니다.

1) 40GbE QSFP+ DAC 케이블 (구리 케이블)

  • 저렴하고 짧은 거리(1~5m)에서 사용 가능
  • 구리 케이블이므로 전력 소비가 적음
  • 단점: 거리가 5m를 초과하면 사용할 수 없음

2) 40GbE QSFP+ AOC 케이블 (광 케이블)

  • 5m~30m까지 지원, DAC보다 긴 거리 연결 가능
  • 단점: DAC보다 가격이 비쌈

3) 40GbE QSFP+ 광 모듈 + MPO/MTP 광 케이블

  • 최대 100m 이상 연결 가능
  • 고속 데이터 전송이 가능하며, 데이터센터에서 많이 사용
  • MPO/MTP 커넥터를 사용하므로 기존 LC 듀플렉스 광케이블과 호환되지 않음
  • 가격이 가장 비쌈

🔹 4. 40GbE <-> 10GbE 연결이 필요한 경우

만약 40GbE 포트와 10GbE 포트를 연결해야 한다면, 두 가지 방법이 있습니다.

1) QSFP+ to 4x SFP+ Breakout DAC (40GbE to 4x10GbE 분기 케이블)

  • QSFP+ 포트에서 4개의 SFP+ 포트로 변환하는 DAC 케이블
  • 예를 들어, 40GbE 스위치에서 4개의 10GbE 서버를 연결할 때 사용
  • 단점: 모든 장비가 40G->4x10G 분할을 지원해야 함

2) QSFP+ to 4x SFP+ Breakout 광 케이블

  • QSFP+ 광 모듈을 사용하여 4개의 SFP+ 광 모듈로 변환
  • 장거리 연결이 필요할 때 사용

🔹 5. 결론 – 40GbE에는 40GbE 전용 케이블이 필요!

🚫 10GbE SFP+ 케이블은 40GbE QSFP+ 포트에서 사용할 수 없음.
✅ 40GbE 장비를 연결하려면 QSFP+ 전용 DAC, AOC, 또는 광 모듈 + MPO 광케이블을 사용해야 함.
✅ 40GbE <-> 10GbE 연결이 필요하면 QSFP+ to 4x SFP+ Breakout 케이블 사용.

➡ 결론적으로 40GbE를 위해서는 반드시 QSFP+ 전용 케이블을 구매하는 것이 필수입니다.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

🔹 OpenVPN 클라이언트 연결 시 인터넷 차단 (Kill Switch) 설정 방법

OpenVPN 클라이언트가 VPN에 연결되면, 일반적으로 모든 트래픽이 VPN을 통해 전달됩니다. 하지만 VPN이 끊기면 기존의 인터넷 연결이 복구되면서 IP 유출 가능성이 생깁니다. 이를 방지하려면 Kill Switch 기능을 활성화해야 합니다.


✅ 1. OpenVPN 설정에서 Kill Switch 적용 (Windows)

Windows에서 OpenVPN 연결 시 인터넷을 차단하는 방법은 크게 3가지가 있습니다.

📌 방법 1: 방화벽을 이용한 Kill Switch 설정 (추천)

Windows 방화벽을 활용하면 OpenVPN 인터페이스가 비활성화될 경우 인터넷을 차단할 수 있습니다.

1️⃣ Windows + R → wf.msc 입력 후 Enter

  • "고급 보안이 포함된 Windows Defender 방화벽" 실행

2️⃣ 아웃바운드 규칙 생성

  • 좌측에서 "아웃바운드 규칙" 선택 → 우측 "새 규칙" 클릭
  • "사용자 지정(Custom)" 선택 후 다음(Next)

3️⃣ 규칙 적용 네트워크 인터페이스 선택

  • "인터페이스 유형"에서 "LAN"과 "무선 네트워크(Wi-Fi)"만 체크
  • "가상 어댑터(TAP-Windows Adapter V9)"는 체크 해제
  • 즉, VPN 인터페이스가 아닌 일반 네트워크에서만 규칙을 적용

4️⃣ 차단할 프로그램 선택

  • "모든 프로그램(All Programs)" 선택

5️⃣ 차단할 네트워크 연결 설정

  • "연결 차단(Block the Connection)" 선택

6️⃣ 규칙 적용 범위 선택

  • "도메인", "개인", "공용" 모두 체크

7️⃣ 규칙 이름 입력

  • 예: "VPN Kill Switch"

✅ 이렇게 설정하면 VPN 연결이 끊기면 일반 인터넷 사용이 차단됩니다.


📌 방법 2: OpenVPN 클라이언트 설정에서 block-outside-dns 옵션 사용

DNS 유출을 방지하면서 VPN이 끊기면 인터넷 접속을 차단하는 간단한 방법입니다.

1️⃣ OpenVPN 클라이언트 설정 파일(client.ovpn)을 열고 아래 내용 추가:

block-outside-dns

2️⃣ 저장 후 OpenVPN 클라이언트 재시작

📌 이 방법은 Windows 10 이상에서만 동작하며, 완벽한 Kill Switch는 아닙니다.


📌 방법 3: VPN이 끊기면 라우팅 테이블을 변경하여 인터넷 차단

OpenVPN이 끊기면 기본 게이트웨이를 제거하여 인터넷이 끊기도록 설정할 수도 있습니다.

1️⃣ OpenVPN 클라이언트 설정 파일(client.ovpn)에 추가

route-nopull
route 0.0.0.0 0.0.0.0 vpn_gateway
  • route-nopull: 기본 인터넷 트래픽을 기존 네트워크에서 사용하지 않음
  • route 0.0.0.0 0.0.0.0 vpn_gateway: VPN을 통해서만 인터넷을 사용

2️⃣ 저장 후 OpenVPN 클라이언트 재시작


🔹 결론 (추천 방법)

방화벽을 이용한 Kill Switch 설정 → 가장 안정적이고 강력함
✅ block-outside-dns 옵션 추가 → DNS 유출 방지에 효과적
✅ OpenVPN 설정에서 route-nopull 추가 → VPN을 통한 트래픽만 허용

위 방법 중 1번 (방화벽 설정) 을 적용하면 VPN이 끊어지면 자동으로 인터넷이 차단됩니다.
추가로 2번과 3번을 적용하면 더욱 안전한 설정이 가능합니다. 🚀

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

OpenVPN의 속도를 최대로 높이는 방법을 정리해보겠습니다.


🔹 OpenVPN 속도를 빠르게 하는 주요 설정

아래 방법들을 조합하면 속도를 최대한 끌어올릴 수 있습니다.

✅ 1. 암호화 & 인증 방식 제거 또는 약화

1-1. 암호화 없음 (No Encryption, cipher none)

  • 암호화가 필요 없다면 암호화를 완전히 비활성화하면 속도가 크게 향상됨.
  • 설정 방법:
    cipher none
    auth none
    
  • cipher none과 auth none을 설정하면 CPU 부하가 거의 없어지므로 전송 속도가 극대화됨.

1-2. AES-128-GCM 사용 (경량 암호화)

  • 암호화를 완전히 끄는 것이 어렵다면, 가장 가벼운 알고리즘인 AES-128-GCM을 사용.
  • 설정 방법:
    cipher AES-128-GCM
    
  • AES-256-CBC보다 가벼우며, 대부분의 CPU에서 AES-NI 하드웨어 가속 지원.

✅ 2. TCP 대신 UDP 사용

  • OpenVPN은 기본적으로 UDP가 속도가 빠름.
  • 설정 파일에서 proto tcp를 proto udp로 변경:
    proto udp
    
  • TCP는 패킷 손실 시 재전송(overhead)이 많아 속도가 느려짐, UDP가 훨씬 빠름.

✅ 3. 압축 비활성화 (comp-lzo no)

  • OpenVPN은 기본적으로 comp-lzo 압축을 지원하지만, 압축 과정에서 CPU 리소스를 많이 사용하여 속도가 떨어짐.
  • 설정 파일에서 comp-lzo를 비활성화:
    comp-lzo no
    

✅ 4. OpenVPN 프로세스의 MTU 최적화

  • 패킷 크기를 조정하면 속도 향상 가능.
  • 기본적으로 OpenVPN은 작은 패킷을 여러 개 보내므로 속도가 느려질 수 있음.
  • 아래 설정을 적용하면 MTU 크기를 최대로 증가하여 속도를 높일 수 있음:
    tun-mtu 1500
    mssfix 1450
    fragment 0
    
  • 추가로 적용 가능한 설정:
    sndbuf 524288
    rcvbuf 524288
    push "sndbuf 524288"
    push "rcvbuf 524288"
    
    • 버퍼 크기를 증가시켜 네트워크 전송 속도 향상.

✅ 5. OpenVPN 멀티스레드 사용 (fast-io)

  • 기본적으로 OpenVPN은 단일 스레드로 실행되므로, CPU를 제대로 활용하지 못함.
  • fast-io 옵션을 활성화하여 멀티스레드 성능을 향상:
    fast-io
    
  • 특히 다중 코어 CPU 환경에서 속도가 크게 향상됨.

✅ 6. TCP 패킷 큐 및 큐 길이 최적화

  • 네트워크의 패킷 전송을 최적화하려면 다음 옵션 추가:
    txqueuelen 10000
    
  • 네트워크 버퍼 크기를 증가시켜 패킷 손실을 줄이고 성능을 향상.

✅ 7. 서버와 클라이언트의 네트워크 성능 최적화

  • 서버 측에서:
  • sysctl -w net.core.rmem_max=2097152 sysctl -w net.core.wmem_max=2097152 sysctl -w net.ipv4.tcp_rmem="4096 87380 2097152" sysctl -w net.ipv4.tcp_wmem="4096 87380 2097152"
  • 클라이언트 측에서도 동일한 설정 적용.

🔹 추가적인 방법

✅ 8. WireGuard로 변경 (극단적인 성능 차이)

  • OpenVPN을 아무리 최적화해도 WireGuard가 훨씬 빠름.
  • OpenVPN은 단일 스레드 기반이고 암호화 오버헤드가 많아 성능이 떨어짐.
  • WireGuard는 커널 네트워크 스택을 사용하여 OpenVPN보다 3~10배 빠름.
  • 속도가 가장 중요하다면 WireGuard로 마이그레이션하는 것이 최선.

💡 결론: OpenVPN 속도를 높이는 최적 설정

아래와 같이 OpenVPN 서버/클라이언트 설정을 적용하면 최대 속도를 얻을 수 있음.

# OpenVPN 설정 파일 수정
proto udp
cipher none
auth none
comp-lzo no
tun-mtu 1500
mssfix 1450
fragment 0
sndbuf 524288
rcvbuf 524288
push "sndbuf 524288"
push "rcvbuf 524288"
fast-io
txqueuelen 10000

암호화 제거 (보안 X) → 속도 극대화
UDP 사용 → TCP보다 빠름
MTU 최적화 → 패킷 크기 최적화
압축 비활성화 → CPU 오버헤드 감소
버퍼 크기 증가 → 데이터 전송 속도 증가

이 설정을 적용하면 OpenVPN 속도를 최대한 높일 수 있음.
하지만 더 빠른 속도가 필요하면 WireGuard로 교체하는 것이 가장 좋은 선택!

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

 

1. PPTP에서 TAP 브리지 같은 기능 사용 가능 여부

✅ 가능하지만, PPTP 자체가 보안상 매우 취약하여 추천되지 않음.

  • PPTP는 기본적으로 TAP/TUN 개념이 아니라 PPP(Point-to-Point Protocol) 기반이므로, OpenVPN의 TAP처럼 로컬 네트워크(192.168.x.x)와 완전히 동일한 IP를 부여하는 브리지 모드를 직접 지원하지 않음.
  • 하지만, PPTP VPN 서버에서 DHCP 리스(Proxy ARP) 기능을 활성화하면 VPN 클라이언트가 공유기의 기존 IP 대역(예: 192.168.50.x)을 받을 수 있음.

📌 PPTP에서 VPN 클라이언트가 기존 네트워크 IP를 받도록 설정하는 방법 (ASUS 공유기 기준)

  1. 공유기 관리자 페이지(192.168.50.1)에서 VPN > VPN Server > PPTP로 이동
  2. **"Client IP Address Range"**를 기존 서브넷(192.168.50.x)과 동일한 범위로 설정 (예: 192.168.50.100 ~ 192.168.50.150)
  3. "Broadcast and Proxy ARP" 옵션을 활성화 (VPN 클라이언트가 DHCP에서 IP를 받을 수 있도록 함)
  4. "Allow Multiple Logins" 옵션을 활성화하여, VPN 클라이언트들이 서로 통신할 수 있도록 함
  5. 설정 저장 후, VPN 서버를 재시작

⚠️ PPTP의 단점

  • PPTP는 암호화 방식(MSCHAPv2)이 취약하여 해킹에 매우 쉽게 노출됨.
  • 최신 운영체제(특히 macOS, iOS)는 기본적으로 PPTP를 지원하지 않음.
  • 따라서 가능하면 OpenVPN(TAP)이나 WireGuard를 고려하는 것이 좋음.

2. WireGuard에서 TAP(브리지 모드) 기능 사용 가능 여부

🚫 기본적으로 불가능하지만, 별도의 네트워크 브리지 설정을 통해 구현 가능

  • WireGuard는 기본적으로 Layer 3(TUN 방식) VPN이므로 TAP 브리지 모드를 직접 지원하지 않음.
  • 즉, WireGuard 클라이언트는 공유기의 로컬 네트워크(192.168.50.x)를 직접 할당받을 수 없으며, VPN 서브넷(예: 10.0.0.x 또는 192.168.100.x)을 따로 사용해야 함.
  • 하지만, Linux 기반의 공유기(OpenWRT)나 서버에서는 WireGuard를 TAP처럼 동작하도록 설정할 수 있음.

📌 WireGuard에서 VPN 클라이언트가 기존 네트워크(192.168.50.x)를 사용하도록 설정하는 방법

  1. 공유기(또는 Linux 서버)에서 WireGuard 인터페이스를 생성 (wg0)
  2. WireGuard 인터페이스를 기존 네트워크 인터페이스(br0 또는 eth0)에 브리지로 연결
  3. DHCP 리스 브로드캐스트를 허용 (iptables 설정 필요)
  4. WireGuard 클라이언트에게 기존 네트워크 서브넷(192.168.50.x)의 IP를 수동 할당

⚠️ WireGuard의 TAP 브리지 구현 단점

  • ASUS 공유기의 기본 WireGuard 기능에서는 브리지 설정이 불가능 (OpenWRT 또는 Linux 서버 필요).
  • WireGuard는 원래 **라우팅 기반 VPN(Layer 3)**이므로, TAP 모드(TAP Bridge)를 직접 지원하지 않음.
  • 클라이언트 간 브로드캐스트 패킷 전송이 원활하지 않을 수 있음.

🔹 최적의 선택은?

VPN 종류  TAP 브리지 지원 여부 속도  보안성 공유기에서 설정 가능 여부
OpenVPN (TAP) ✅ 가능 느림 보안 강함 ✅ 가능
PPTP (Proxy ARP) ⚠️ 제한적 가능 빠름 보안 취약 ✅ 가능
WireGuard (브리지 모드 수동 설정) ❌ 기본 지원 안 함 (추가 설정 필요) 매우 빠름 보안 강함 ❌기본 지원 X

🔹 추천 방법

  • ASUS 공유기만 사용할 경우: OpenVPN TAP 모드 사용 (VPN > OpenVPN > TAP 활성화)
  • 속도가 중요한 경우: WireGuard 사용하되, TAP 브리지는 어려우므로 별도의 네트워크 설정 필요
  • 최고의 성능 & 기존 네트워크 IP 사용: WireGuard를 OpenWRT/PFSense/Linux 서버에서 설정 후, br0 브리지 구성

➡ 결론:

ASUS 공유기에서 가장 간단한 방법은 OpenVPN TAP 모드(기본 제공) 또는 **PPTP(Proxy ARP 활성화)**를 사용하는 것입니다.
WireGuard로 동일한 기능을 구현하려면 OpenWRT 같은 고급 네트워크 설정이 필요합니다.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

ASUS 공유기의 VPN 서버 기능(OpenVPN, PPTP, L2TP)을 사용할 때, VPN 클라이언트가 별도의 서브넷(예: 10.0.0.x)을 할당받는 것이 기본 동작입니다. 하지만 VPN 클라이언트가 기존 공유기의 로컬 네트워크(192.168.50.x)에 속하도록 설정하는 방법도 가능합니다. 이를 "VPN 브리지 모드" 또는 **"TAP 모드"**로 구현할 수 있습니다.


방법 1: OpenVPN TAP 모드 사용 (브리지 모드)

설명

  • ASUS 공유기의 기본 OpenVPN 설정은 TUN 모드로 동작하며, 별도의 서브넷을 사용(10.8.0.x 또는 10.0.0.x)합니다.
  • 하지만 TAP 모드를 사용하면, VPN 클라이언트가 기존 네트워크(192.168.50.x)의 IP를 직접 받을 수 있습니다.

설정 방법

  1. 공유기 관리자 페이지 접속 (192.168.50.1)
  2. VPN 서버 설정 페이지 이동 (VPN > VPN Server > OpenVPN)
  3. TUN 모드를 TAP 모드로 변경
    • "VPN Details"에서 "Advanced Settings"를 확장한 후,
      • TUN → TAP로 변경
  4. "Manage Client-Specific Options"에서 "Bridged" 활성화
  5. DHCP 브리지 활성화
    • "Client will use DHCP settings from the router" 옵션 활성화
  6. 설정을 저장하고 VPN 서버를 재시작

장점

  • VPN 클라이언트가 192.168.50.x 대역의 IP를 직접 할당받아, 기존 네트워크와 원활하게 통신 가능.
  • NAS, 프린터, IoT 장치 등과의 로컬 네트워크 통신이 용이함.

단점

  • TAP 모드는 **레이어 2(브리지 방식)**로 동작하여, 모바일 환경(iOS, Android)에서 기본 지원되지 않음.
  • 일부 VPN 클라이언트가 TAP 인터페이스를 제대로 지원하지 않을 수 있음.

방법 2: VPN 클라이언트에게 기존 네트워크 IP를 수동 할당 (DHCP 설정)

설명

  • VPN을 사용하면서도 VPN 클라이언트가 기존 네트워크(192.168.50.x)의 IP를 할당받도록 할 수 있음.
  • 일부 ASUS 공유기 펌웨어에서는 OpenVPN TUN 모드에서도 특정 클라이언트에 **고정 IP 할당(DHCP 옵션)**이 가능.

설정 방법

  1. VPN 서버 설정 (TUN 모드 유지)
  2. 고정 IP 할당 (Client Specific Options)
    • VPN 클라이언트의 Common Name(CN)을 확인 후, 해당 클라이언트에 192.168.50.x 대역의 IP를 수동으로 할당.
  3. NAT & Routing 설정
    • "Push LAN to clients" 옵션 활성화
    • "Allow Client to Client Communication" 활성화
    • "Redirect Internet Traffic" 옵션을 비활성화 (필요에 따라 설정)

장점

  • 모바일에서도 사용 가능 (TAP 모드보다 호환성 높음).
  • 기존 서브넷(192.168.50.x)에서 작동.

단점

  • 일부 장치에서 VPN 연결 후 로컬 네트워크 통신이 원활하지 않을 수 있음.
  • 네트워크 구성에 따라 추가적인 라우팅 설정이 필요할 수도 있음.

추천 방법

  • TAP 모드 (방법 1): VPN을 통해 공유기의 로컬 네트워크에 완전히 동일한 방식으로 접속하고 싶다면 TAP 모드를 추천. 하지만 모바일 호환성이 떨어짐.
  • 고정 IP 설정 (방법 2): 일반적인 VPN 사용 환경에서는 TUN 모드를 유지하면서, 특정 클라이언트에게 192.168.50.x 대역의 IP를 할당하는 방식이 호환성이 좋음.

만약 ASUS 공유기의 VPN 기능이 충분히 지원되지 않는다면, PFSense, OpenWRT 같은 별도의 VPN 서버를 구축하는 것도 고려할 수 있습니다.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,
반응형

남북전쟁 당시(1861-1865)에는 의료 기술과 위생 관념이 오늘날과 비교해 매우 부족했기 때문에 부상 치료가 제한적이었고, 절단 수술(Amputation)이 일반적인 치료법으로 사용되었습니다. 당시 많은 병사들이 팔다리를 잃게 된 이유를 몇 가지 관점에서 설명하겠습니다.


1. 의료 기술의 한계

1-1. 감염을 막을 방법의 부족

  • 당시는 세균의 존재에 대한 이해가 부족했습니다. 루이 파스퇴르와 조제프 리스터의 위생 개념이 등장하기 전이라, 감염이 부상 치료에서 가장 큰 문제가 되었지만 이를 예방하거나 치료할 방법이 없었습니다.
  • 의사들은 손과 기구를 소독하지 않고 수술했으며, 때로는 같은 도구를 여러 환자에게 그대로 사용했습니다. 이로 인해 병원균이 상처를 통해 침투해 감염(패혈증, 괴저 등)이 심각해졌습니다.

1-2. 항생제의 부재

  • 페니실린 같은 항생제는 남북전쟁이 끝난 뒤인 1928년에 발견되었습니다. 감염이 발생하면 치료할 방법이 없었기 때문에 감염 부위를 절단해 제거하는 것이 생명을 구할 유일한 방법이었습니다.

1-3. 국소 치료 기술의 미비

  • 오늘날처럼 정밀 수술 도구나 현미경적 수술 기술이 없었기 때문에 세밀한 봉합이나 조직 복원이 불가능했습니다. 부상 부위를 살리는 것보다 감염이 번지기 전에 절단하는 것이 더 현실적이라고 여겨졌습니다.

2. 부상의 성격

2-1. 무기의 발전

  • 남북전쟁 때 사용된 무기, 특히 **Minié ball(미니에 볼)**이라는 납 탄환은 이전의 탄환과 달리 더 크고 무겁고 속도가 낮았습니다. 이 탄환은 몸에 들어가면서 큰 충격과 파편을 만들어 뼈를 산산조각 냈습니다.
  • 뼈가 산산조각난 경우 이를 복구하는 것은 불가능에 가까웠고, 치료를 시도하는 것보다 절단이 더 빠르고 안전했습니다.

2-2. 치명적인 감염 위험

  • 당시 전쟁터는 흙과 먼지가 가득한 환경으로, 부상자가 땅에 쓰러지면 상처에 즉시 흙과 이물질이 들어갔습니다. 감염 위험이 매우 높았고, 특히 파편으로 인한 상처는 괴저(gangrene)로 이어질 가능성이 컸습니다. 이러한 부상을 방치하면 사망 가능성이 높아졌습니다.

3. 전시 상황의 제약

3-1. 시간과 자원의 부족

  • 전쟁터에서 의사와 간호사들은 수많은 부상자를 치료해야 했습니다. 절단 수술은 비교적 빠르게 끝낼 수 있어, 생존 가능성이 있는 다른 병사들에게 더 많은 시간을 할애할 수 있었습니다.
  • 한쪽 팔다리를 절단하는 데 걸리는 시간은 10~15분 정도였으며, 대부분의 의사는 하루에 수십 건의 절단 수술을 했습니다.

3-2. 마취제의 한계

  • 남북전쟁 당시 에테르클로로포름 같은 마취제가 도입되어 있었지만, 충분히 보급되지 않았거나 남용으로 인해 효과적이지 못한 경우도 많았습니다. 이를 통해 간단한 절단은 가능했지만, 정교한 치료는 수행하기 어려웠습니다.

3-3. 의료진의 부족

  • 대부분의 군 의사들은 훈련을 받지 않은 경우가 많았으며, 전쟁 중 임시로 의사가 된 사람도 많았습니다. 그들은 정교한 외과 수술을 수행할 기술이 부족했기 때문에, 감염을 막기 위해 절단을 선택하는 경우가 많았습니다.

4. 통계로 보는 당시의 절단 수술

  • 남북전쟁에서 약 6만 건의 절단 수술이 이루어졌으며, 이는 전쟁 중 수행된 모든 수술의 약 75%를 차지합니다.
  • 절단 수술의 생존율은 약 75%였지만, 상처가 감염되거나 괴저로 번지면 생존 가능성은 급격히 떨어졌습니다.

5. 절단 수술 후의 삶

  • 당시에는 의수(의족) 기술이 발달하지 않아, 절단 후의 삶은 매우 힘들었습니다. 부상당한 군인들은 전쟁 이후에도 경제적, 사회적 어려움을 겪었습니다. 특히 남부에서는 이런 부상자들이 많아졌고, 남북전쟁의 후유증은 개인과 사회 모두에게 큰 영향을 미쳤습니다.

결론

남북전쟁 당시 부상자의 팔다리가 자주 절단된 이유는 주로 의료 기술과 위생 수준의 한계, 치명적인 감염 위험, 그리고 전쟁터에서의 현실적인 제약 때문이었습니다. 오늘날에는 의료 기술의 발전으로 부상 부위를 절단하지 않고도 회복이 가능한 경우가 많지만, 당시에는 절단이 생명을 구할 수 있는 가장 빠르고 효과적인 방법으로 간주되었습니다.

반응형
블로그 이미지

우물 밖 개구리.

우물 밖 개구리의 블로그입니다.

,