📌 올바른 구성 방법 1️⃣ TrueNAS에서 iSCSI LUN을 마운트 (ex: /mnt/iscsi_volume) 2️⃣ TrueNAS에서 해당 경로를 NFS 또는 SMB로 공유 3️⃣ Windows에서는 NFS 또는 SMB를 이용해 접속
📌 TrueNAS에서 iSCSI 볼륨을 마운트한 후 NFS 공유 설정 (CLI 예제)
# iSCSI LUN을 마운트한 디렉토리 예시
mkdir -p /mnt/iscsi_volume
# NFS 서버 활성화
service nfs-server enable
service nfs-server start
# NFS 공유 설정
echo "/mnt/iscsi_volume *(rw,sync,no_root_squash)" >> /etc/exports
exportfs -a
service nfs-server restart
➡ 이제 Windows에서 NFS로 접근 가능!
📌 Windows에서 NFS 접속 방법
# NFS 드라이브를 네트워크 드라이브로 연결
mount -o anon \\192.168.1.100\mnt\iscsi_volume Z:
➡ 이제 iSCSI 데이터가 Windows에서도 사용 가능함.
4. 만약 iSCSI를 다중 접속해야 한다면?
iSCSI는 기본적으로 단일 호스트만 마운트할 수 있음. 하지만, 클러스터 파일 시스템(ex: VMFS, OCFS2, GFS2)을 사용하면 다중 OS에서 동시에 iSCSI를 마운트할 수 있음.
📌 다중 접속이 가능한 방법 1️⃣ VMware ESXi + VMFS (가상 머신 저장소용) 2️⃣ Linux + GFS2 또는 OCFS2 (고급 클러스터 환경)
하지만, 일반적인 환경에서는 TrueNAS에서 iSCSI를 마운트하고, NFS/SMB로 공유하는 것이 가장 안전함.
5. 결론
✅ iSCSI는 여러 OS에서 동시에 마운트할 수 없음. ✅ TrueNAS에서 iSCSI LUN을 마운트하고, Windows에서는 NFS/SMB를 통해 접근하면 해결 가능. ✅ 클러스터 파일 시스템(VMFS, GFS2, OCFS2)을 사용하면 다중 접속이 가능하지만, 일반 환경에서는 추천되지 않음. ✅ Windows에서 직접 iSCSI LUN을 마운트하는 대신, TrueNAS가 iSCSI를 관리하고 Windows는 NFS/SMB로 사용하는 것이 최적의 방법.
✅ iSCSI는 블록 스토리지이므로, 직접 파일을 NFS처럼 공유할 수 없음. ✅ 하지만, iSCSI LUN을 마운트한 서버에서 NFS 또는 SMB 공유를 설정하면 가능함.
1. iSCSI는 기본적으로 "파일 공유"가 아님
iSCSI는 NFS나 SMB와 다르게 파일 단위가 아니라 블록 단위로 스토리지를 제공함.
예를 들어, iSCSI LUN을 Windows에서 마운트하면 해당 드라이브는 NTFS로 포맷된 로컬 디스크처럼 동작함.
따라서 이 LUN 자체를 네트워크 공유하려면 추가적인 설정이 필요함.
2. iSCSI LUN을 공유하는 방법 (NFS 또는 SMB를 이용)
🔹 방법 1: iSCSI LUN을 서버에 마운트하고, NFS/SMB로 공유하기
1️⃣ iSCSI LUN을 특정 서버 (예: TrueNAS, Ubuntu, Windows)에 연결 2️⃣ 서버에서 해당 스토리지를 NFS 또는 SMB로 공유 설정 3️⃣ 외부 장치(스마트폰, 노트북 등)에서 NFS 또는 SMB로 접속
✅ 결과적으로, 외부 기기는 iSCSI를 직접 접속하는 것이 아니라, NFS/SMB를 통해 공유된 파일에 접근하는 방식이 됨.
📌 예제: iSCSI LUN을 마운트한 후, NFS로 공유하는 방법 (Linux 서버 기준)
# 1. iSCSI LUN 마운트
iscsiadm -m node --targetname iqn.2025-01.mystorage:lun1 --portal 192.168.1.100 --login
mount /dev/sdb1 /mnt/iscsi_storage
# 2. NFS 서버 설치
apt install nfs-kernel-server -y
# 3. NFS 공유 설정
echo "/mnt/iscsi_storage *(rw,sync,no_root_squash)" >> /etc/exports
exportfs -a
systemctl restart nfs-kernel-server
➡ 이제 다른 장치에서 NFS로 접속 가능함! ➡ 핸드폰에서는 "X-plore" 같은 앱을 사용하면 NFS 공유 파일을 쉽게 접근할 수 있음.
📌 Windows에서 공유하고 싶은 경우:
iSCSI LUN을 마운트한 후, 해당 폴더를 SMB(네트워크 공유)로 설정하면 됨.
스마트폰에서는 "CX 파일 탐색기" 또는 "ES 파일 탐색기" 같은 앱을 사용하여 접근 가능.
3. iSCSI LUN을 직접 NFS처럼 공유할 수는 없는 이유
iSCSI는 블록 스토리지이므로, 파일을 직접 다루는 것이 아니라 OS에서 "하드디스크"처럼 사용하는 방식임.
반면, NFS는 파일 단위로 공유되므로 여러 사용자가 동시에 접근 가능함.
따라서, iSCSI를 직접 핸드폰에서 접근하는 것은 불가능하지만, iSCSI를 마운트한 서버를 거쳐 NFS나 SMB로 공유하면 해결 가능함.
4. 결론
✅ iSCSI LUN을 스마트폰에서 직접 접근할 수는 없음. ✅ 하지만, iSCSI LUN을 서버에 마운트한 후, NFS 또는 SMB로 공유하면 스마트폰에서도 접근 가능함. ✅ 즉, "iSCSI → 서버 → NFS/SMB → 스마트폰" 방식으로 사용해야 함. ✅ 이 방법을 사용하면, PC에서는 iSCSI로 빠르게 접속하고, 핸드폰에서는 NFS/SMB로 쉽게 파일을 공유할 수 있음.
iSCSI(Internet Small Computer System Interface)는 SCSI 명령을 TCP/IP 네트워크를 통해 전송하여 원격 스토리지를 로컬 디스크처럼 사용할 수 있도록 하는 스토리지 프로토콜이다.
즉, 일반적인 NAS(Network Attached Storage) 방식(SMB, NFS)과 달리, 네트워크를 통해 원격 디스크를 직접 마운트하여 로컬 블록 스토리지처럼 동작하게 만드는 기술이다.
💡 쉽게 말해:
SMB/NFS → 파일 단위(File-Level) 공유
iSCSI → 블록 단위(Block-Level) 공유 (로컬 디스크처럼 동작)
📌 iSCSI의 주요 특징:
TCP/IP 기반이므로 기존 네트워크 인프라(이더넷)를 활용할 수 있음.
SCSI 명령어를 encapsulation(캡슐화)하여 네트워크로 전송.
OS에서 로컬 디스크로 인식되므로, 일반 HDD/SSD와 동일한 방식으로 사용할 수 있음.
스토리지 프로토콜 중에서 가장 범용성이 높고, 네트워크 기반 SAN(Storage Area Network)에서 많이 사용됨.
✅ iSCSI는 과거 데이터센터에서 SAN(Storage Area Network) 구축 시 광채널(Fibre Channel)보다 저렴한 대안으로 많이 사용되었음. ✅ 현재도 고성능 NAS나 가상화 환경(VMware, Proxmox, Hyper-V)에서 블록 스토리지 공유 용도로 여전히 널리 활용됨.
2. iSCSI의 구조 및 동작 방식
iSCSI는 크게 두 가지 역할로 나뉜다.
iSCSI Initiator (클라이언트): iSCSI Target에 연결하여 원격 디스크를 마운트하는 장치 (예: Windows/Linux PC, Hypervisor)
iSCSI Target (서버): iSCSI Initiator에게 스토리지를 제공하는 장치 (예: TrueNAS, Windows Server, SAN 장비)
📌 iSCSI 데이터 전송 과정:
iSCSI Initiator가 Target에 연결 요청을 보냄.
TCP/IP 기반으로 SCSI 명령을 캡슐화하여 전송.
iSCSI Target이 명령을 받아 원격 스토리지 블록을 제공.
Initiator는 이를 로컬 디스크처럼 사용하며 파일 시스템(FAT, NTFS, EXT4 등)으로 마운트.
💡 결과적으로: ➡ 네트워크를 통해 원격 스토리지를 직접 로컬 디스크처럼 사용 가능 ➡ 네트워크 레벨에서 동작하는 블록 스토리지 방식
3. iSCSI vs SMB vs NFS – 성능 및 비교
구분
iSCSI (블록 레벨)
SMB (파일 레벨)
NFS (파일 레벨)
사용 방식
OS에서 로컬 디스크처럼 인식
네트워크 공유 폴더
네트워크 공유 폴더
프로토콜 계층
블록 단위 I/O (SCSI)
파일 단위 I/O
파일 단위 I/O
속도
가장 빠름 (CPU 부하 적음)
상대적으로 느림 (파일 단위)
중간 (파일 단위)
지연시간 (Latency)
가장 낮음 (0.20.5ms)
상대적으로 높음 (~1ms 이상)
중간 (0.51ms)
CPU 사용량
낮음 (네트워크 처리만 필요)
중간 (파일 접근 권한, 메타데이터 처리)
높음 (파일 메타데이터 + 락 처리)
멀티유저 동시 접속
제한적 (1:1 연결)
다수 동시 접속 가능
다수 동시 접속 가능
장점
높은 성능, 낮은 지연시간, 로컬 디스크처럼 사용 가능
광범위한 호환성, Windows에서 기본 지원
Linux 환경에서 빠르고 효율적
단점
설정이 복잡함, 여러 클라이언트가 동일 디스크를 공유할 수 없음
파일 단위라 속도가 제한됨
SMB보다 설정이 어려움
📌 성능 측면에서 보면: ✅ iSCSI는 네트워크를 통해 SCSI 명령을 직접 처리하므로 파일 단위 공유 방식(SMB, NFS)보다 속도가 빠르고, I/O 지연이 적음. ✅ SMB와 NFS는 파일 단위 접근 방식이라, 메타데이터 처리, 파일 락킹 등으로 인해 오버헤드가 발생하여 성능이 낮아질 수 있음.
💡 결론: ✅ SMB는 파일 공유에 적합 ✅ NFS는 리눅스 기반 서버에서 유용 ✅ iSCSI는 고성능 블록 스토리지가 필요할 때 가장 적합
4. PC방 노하드 시스템과 iSCSI – 왜 느릴까?
과거 PC방에서 iSCSI 기반 "노하드 시스템"이 널리 사용되었지만, 일반적으로 느린 성능을 보였음.
📌 노하드 시스템이 느렸던 이유:
저속 네트워크 사용 (1Gbps 환경이 일반적)
1GbE(125MB/s)에서는 OS 부팅 및 게임 실행 시 병목 발생.
OS 부팅 시 수십~수백 개의 클라이언트가 동시에 I/O 요청을 보내면서 속도가 저하됨.
스토리지 성능 부족
당시 사용된 SATA HDD나 SSD의 IOPS(입출력 성능)가 부족하여 병목 발생.
RAID 설정이 비효율적이거나 캐싱이 부족하여 성능 저하.
대규모 동시 요청 처리 어려움
iSCSI는 1:1 연결이 기본 구조이므로, 다수의 클라이언트가 동시에 접속하면 트래픽이 과부하됨.
💡 하지만 최근 10GbE 이상 환경에서는 iSCSI도 충분히 빠름.
5. iSCSI를 사용할 때 성능을 극대화하는 방법
iSCSI의 성능을 최대한 활용하려면 네트워크 및 스토리지 최적화가 필수다.
📌 최적화 방법: ✅ 10GbE 이상 네트워크 사용 (1GbE는 속도 병목 발생) ✅ MTU 설정 (Jumbo Frame 활성화, 9000으로 설정) ✅ Flow Control 비활성화, NIC에서 RSS/TSO 활성화 ✅ NVMe SSD 캐시 적용 (HDD는 속도 한계가 있음) ✅ iSCSI LUN을 SSD RAID로 구성하여 성능 극대화 ✅ Direct Access Mode 사용 (Windows iSCSI Initiator 설정에서 설정 가능)
➡ 이렇게 설정하면 로컬 NVMe SSD에 가까운 성능을 제공할 수 있음.
6. 결론 – 현재도 iSCSI가 가장 빠른가?
✅ 파일 공유라면 SMB/NFS가 더 유용하지만, 블록 단위 스토리지 성능이 중요할 경우 iSCSI가 여전히 최적의 솔루션. ✅ 특히, 10GbE 이상 네트워크와 SSD 스토리지 환경에서는 iSCSI의 성능이 매우 뛰어남. ✅ 반면, 1GbE 환경에서는 SMB/NFS와 큰 차이가 없으며, 설정이 잘못되면 속도가 오히려 낮아질 수 있음. ✅ 과거 PC방 노하드 시스템이 느렸던 이유는 네트워크 및 스토리지 병목 때문이며, 현재의 10GbE + SSD 환경에서는 충분히 고속으로 동작 가능.
➡ 결론적으로, 현재도 고성능 네트워크 스토리지가 필요하다면 iSCSI는 SMB/NFS보다 빠른 선택지! 🚀
설명에 사용된 용어 정리 및 iSCSI 관련 추가 설명
1. MTU (Maximum Transmission Unit) 설정
MTU란? 네트워크에서 **한 번에 전송할 수 있는 최대 패킷 크기(Byte 단위)**를 의미함.
일반적으로 이더넷의 기본 MTU는 1500바이트로 설정됨.
iSCSI, SMB Direct, RDMA 등의 고속 데이터 전송에서는 MTU를 9000으로 설정하여 더 큰 패킷을 한 번에 전송할 수 있음.
MTU 설정의 효과:
MTU가 크면, 더 적은 패킷 수로 동일한 데이터를 전송할 수 있어 CPU 부하가 감소하고 속도가 향상됨.
하지만, MTU 설정이 네트워크의 모든 장치에서 동일하게 적용되지 않으면 패킷 단편화(fragmentation)가 발생하여 성능이 오히려 저하될 수 있음.
📌 MTU 설정 방법 (Windows/Linux 예시)
# Linux에서 MTU 9000으로 설정
ip link set eth0 mtu 9000
# Windows에서 MTU 확인 및 설정
netsh interface ipv4 show subinterfaces
netsh interface ipv4 set subinterface "Ethernet" mtu=9000 store=persistent
2. Jumbo Frame
Jumbo Frame이란?
기본적으로 이더넷 패킷은 1500바이트(MTU 1500)까지 전송할 수 있지만, Jumbo Frame을 활성화하면 최대 9000바이트까지 증가시킬 수 있음.
MTU가 9000이면, 패킷 크기가 커져서 한 번에 더 많은 데이터를 보낼 수 있음.
Jumbo Frame의 장점:
패킷 수 감소 → CPU 부하 감소 → 네트워크 효율 증가
대량의 데이터 전송(iSCSI, SMB, NFS, 10GbE 환경 등)에서 성능 향상
Jumbo Frame 사용 시 주의점:
네트워크의 모든 장치(스위치, 라우터, 서버, 클라이언트)에서 동일한 설정이 필요함.
하나라도 설정이 다르면 패킷 단편화(fragmentation) 문제가 발생하여 성능이 저하될 수 있음.
📌 Jumbo Frame 활성화 방법 (Windows 예시)
# 네트워크 인터페이스 MTU 9000으로 설정
netsh interface ipv4 set subinterface "Ethernet" mtu=9000 store=persistent
📌 Jumbo Frame 활성화 방법 (Linux 예시)
ip link set eth0 mtu 9000
3. Flow Control (흐름 제어, FC)
Flow Control이란? 네트워크에서 송신 속도를 조절하여 수신 측이 데이터를 감당할 수 있도록 하는 기능.
네트워크 트래픽이 과부하 상태가 되면 송신 측이 전송 속도를 줄이도록 제어함.
일반적으로 스위치와 네트워크 카드(NIC)에서 활성화할 수 있음.
Flow Control의 문제점:
대역폭이 큰 환경(10GbE 이상)에서는 Flow Control이 오히려 성능 저하를 유발할 수 있음.
iSCSI, SMB Direct 등의 고속 네트워크 환경에서는 Flow Control을 비활성화하는 것이 일반적임.
📌 Flow Control 비활성화 방법 (Windows 예시)
장치 관리자 → 네트워크 어댑터 → 속성
고급(Advanced) 탭 → "Flow Control"을 "Disabled"로 변경
📌 Flow Control 비활성화 방법 (Linux 예시)
ethtool -A eth0 rx off tx off
4. RSS (Receive Side Scaling) / TSO (TCP Segmentation Offload)
✅ RSS (Receive Side Scaling):
다중 CPU 코어를 활용하여 네트워크 트래픽을 병렬 처리하는 기술
기본적으로 네트워크 트래픽은 단일 CPU 코어에서 처리되는데, RSS를 활성화하면 여러 코어에서 동시에 처리하여 성능을 높일 수 있음.
✅ TSO (TCP Segmentation Offload):
패킷을 작은 단위로 나누는 작업을 CPU가 아닌 네트워크 카드(NIC)에서 처리하도록 하는 기술
CPU 부하를 줄이고 네트워크 성능을 향상시킬 수 있음.
📌 RSS/TSO 활성화 방법 (Windows 예시)
장치 관리자 → 네트워크 어댑터 → 속성 → 고급(Advanced)
"Receive Side Scaling" 옵션을 "Enabled"로 변경
"TCP Segmentation Offload" 옵션을 "Enabled"로 변경
📌 RSS/TSO 활성화 방법 (Linux 예시)
ethtool -K eth0 rx on tx on tso on gso on
5. iSCSI LUN (Logical Unit Number)
iSCSI LUN이란?
iSCSI Target에서 클라이언트(Initiator)에게 제공하는 블록 스토리지 단위
하나의 LUN은 하나의 논리적 디스크(Logical Volume)처럼 동작
📌 예제:
10TB의 스토리지가 있는 iSCSI 서버에서,
5TB를 LUN 1로 설정 → Windows 서버에서 사용
3TB를 LUN 2로 설정 → Linux 서버에서 사용
2TB를 LUN 3으로 설정 → VMware에서 사용
➡ 클라이언트 입장에서는 LUN이 하나의 독립적인 로컬 디스크처럼 보임.
6. iSCSI는 꼭 전용 용량을 할당해야 하나?
✅ iSCSI는 기본적으로 "블록 스토리지"이므로, 반드시 특정 용량을 LUN으로 할당해야 함. ✅ 즉, NFS처럼 하나의 스토리지 전체를 공유하는 방식이 아님.
📌 차이점 비교:
구분
iSCSI (블록 스토리지)
NFS (파일 스토리지)
데이터 접근 방식
블록 단위 (Raw Disk)
파일 단위 (Shared Folder)
사용 방식
OS에서 로컬 디스크처럼 마운트
네트워크 공유 폴더로 사용
멀티 클라이언트 지원
제한적 (1:1 연결이 기본)
다중 클라이언트 접근 가능
유연성
정해진 용량만큼 LUN 할당 필요
전체 스토리지를 공유 가능
➡ iSCSI는 블록 단위 접근이므로, 특정 용량을 LUN으로 할당해야 사용 가능. ➡ 반면, NFS는 스토리지 전체를 공유할 수 있으며, 여러 사용자가 동시에 접근 가능.
📌 iSCSI를 유연하게 사용하는 방법:
Thin Provisioning 사용 → 필요할 때만 실제 공간을 차지하도록 설정
LVM(Logical Volume Manager)과 조합하여 관리
결론
✅ MTU & Jumbo Frame → 네트워크 패킷 크기 조절하여 성능 최적화 ✅ Flow Control 비활성화 → 고속 네트워크 환경에서 오버헤드 방지 ✅ RSS/TSO 활성화 → 네트워크 트래픽 처리 최적화 ✅ iSCSI LUN → 특정 용량을 할당하여 사용 ✅ iSCSI는 블록 단위 스토리지이므로, NFS처럼 전체 공유는 불가능
➡ iSCSI는 성능이 뛰어나지만, 블록 스토리지 방식이라 반드시 용량을 지정해서 할당해야 함. ➡ NFS처럼 자유롭게 공유하고 싶다면, 대신 SMB/NFS를 사용하는 것이 더 적절함.
인터넷 쇼핑몰에서 판매하는 10Gbps SFP+ DAC (Direct Attach Cable) 또는 광케이블을 40GbE (40GBASE) 연결에 사용할 수 있는지에 대해 자세히 설명해 드리겠습니다.
🔹 1. SFP+와 QSFP+ 인터페이스 차이점
40GbE를 연결하려면 SFP+ (10Gbps) 모듈이 아니라 QSFP+ (40Gbps) 모듈을 사용해야 합니다. 10GbE와 40GbE는 물리적인 커넥터와 데이터 전송 방식이 다르므로 10GbE용 케이블을 그대로 40GbE에 사용할 수 없습니다.
속도 인터페이스 커넥터 타입 주요 용도
10GbE
SFP+
SFP+ DAC, SFP+ 광모듈 (LC 커넥터)
서버 간 10GbE 연결
40GbE
QSFP+
QSFP+ DAC, QSFP+ 광모듈 (MTP/MPO 커넥터)
서버, 스위치 간 40GbE 연결
➡ 결론:SFP+ 케이블은 QSFP+ 포트에 직접 사용할 수 없음.
🔹 2. SFP+ DAC와 QSFP+ DAC의 차이
✅ 1) 10GbE SFP+ DAC 케이블 (Direct Attach Copper)
일반적으로 10Gbps 전용이며, SFP+ 포트에서만 사용 가능
물리적으로 QSFP+ 포트와 호환되지 않음 (포트 크기와 핀 배열이 다름)
✅ 2) 40GbE QSFP+ DAC 케이블
40GbE 전용으로, QSFP+ 포트에서만 사용 가능
내부적으로 **4개의 10Gbps 채널(4 x 10Gbps = 40Gbps)**로 동작
➡ 결론: 10GbE SFP+ DAC는 40GbE QSFP+ 포트에서 사용할 수 없음. ➡ 40GbE를 위한 QSFP+ DAC 케이블을 구매해야 함.
🔹 3. 40GbE 연결을 위한 옵션
40GbE를 제대로 연결하려면 QSFP+ 모듈과 적절한 케이블이 필요합니다. 사용할 수 있는 케이블 옵션은 다음과 같습니다.
✅ 1) 40GbE QSFP+ DAC 케이블 (구리 케이블)
저렴하고 짧은 거리(1~5m)에서 사용 가능
구리 케이블이므로 전력 소비가 적음
단점: 거리가 5m를 초과하면 사용할 수 없음
✅ 2) 40GbE QSFP+ AOC 케이블 (광 케이블)
5m~30m까지 지원, DAC보다 긴 거리 연결 가능
단점: DAC보다 가격이 비쌈
✅ 3) 40GbE QSFP+ 광 모듈 + MPO/MTP 광 케이블
최대 100m 이상 연결 가능
고속 데이터 전송이 가능하며, 데이터센터에서 많이 사용
MPO/MTP 커넥터를 사용하므로 기존 LC 듀플렉스 광케이블과 호환되지 않음
가격이 가장 비쌈
🔹 4. 40GbE <-> 10GbE 연결이 필요한 경우
만약 40GbE 포트와 10GbE 포트를 연결해야 한다면, 두 가지 방법이 있습니다.
✅ 1) QSFP+ to 4x SFP+ Breakout DAC (40GbE to 4x10GbE 분기 케이블)
QSFP+ 포트에서 4개의 SFP+ 포트로 변환하는 DAC 케이블
예를 들어, 40GbE 스위치에서 4개의 10GbE 서버를 연결할 때 사용
단점: 모든 장비가 40G->4x10G 분할을 지원해야 함
✅ 2) QSFP+ to 4x SFP+ Breakout 광 케이블
QSFP+ 광 모듈을 사용하여 4개의 SFP+ 광 모듈로 변환
장거리 연결이 필요할 때 사용
🔹 5. 결론 – 40GbE에는 40GbE 전용 케이블이 필요!
🚫 10GbE SFP+ 케이블은 40GbE QSFP+ 포트에서 사용할 수 없음. ✅ 40GbE 장비를 연결하려면 QSFP+ 전용 DAC, AOC, 또는 광 모듈 + MPO 광케이블을 사용해야 함. ✅ 40GbE <-> 10GbE 연결이 필요하면 QSFP+ to 4x SFP+ Breakout 케이블 사용.
➡ 결론적으로 40GbE를 위해서는 반드시 QSFP+ 전용 케이블을 구매하는 것이 필수입니다.
ASUS 공유기의 VPN 서버 기능(OpenVPN, PPTP, L2TP)을 사용할 때, VPN 클라이언트가 별도의 서브넷(예: 10.0.0.x)을 할당받는 것이 기본 동작입니다. 하지만 VPN 클라이언트가 기존 공유기의 로컬 네트워크(192.168.50.x)에 속하도록 설정하는 방법도 가능합니다. 이를 "VPN 브리지 모드" 또는 **"TAP 모드"**로 구현할 수 있습니다.
방법 1: OpenVPN TAP 모드 사용 (브리지 모드)
설명
ASUS 공유기의 기본 OpenVPN 설정은 TUN 모드로 동작하며, 별도의 서브넷을 사용(10.8.0.x 또는 10.0.0.x)합니다.
하지만 TAP 모드를 사용하면, VPN 클라이언트가 기존 네트워크(192.168.50.x)의 IP를 직접 받을 수 있습니다.
설정 방법
공유기 관리자 페이지 접속 (192.168.50.1)
VPN 서버 설정 페이지 이동 (VPN > VPN Server > OpenVPN)
TUN 모드를 TAP 모드로 변경
"VPN Details"에서 "Advanced Settings"를 확장한 후,
TUN → TAP로 변경
"Manage Client-Specific Options"에서 "Bridged" 활성화
DHCP 브리지 활성화
"Client will use DHCP settings from the router" 옵션 활성화
설정을 저장하고 VPN 서버를 재시작
장점
VPN 클라이언트가 192.168.50.x 대역의 IP를 직접 할당받아, 기존 네트워크와 원활하게 통신 가능.
NAS, 프린터, IoT 장치 등과의 로컬 네트워크 통신이 용이함.
단점
TAP 모드는 **레이어 2(브리지 방식)**로 동작하여, 모바일 환경(iOS, Android)에서 기본 지원되지 않음.
일부 VPN 클라이언트가 TAP 인터페이스를 제대로 지원하지 않을 수 있음.
방법 2: VPN 클라이언트에게 기존 네트워크 IP를 수동 할당 (DHCP 설정)
설명
VPN을 사용하면서도 VPN 클라이언트가 기존 네트워크(192.168.50.x)의 IP를 할당받도록 할 수 있음.
일부 ASUS 공유기 펌웨어에서는 OpenVPN TUN 모드에서도 특정 클라이언트에 **고정 IP 할당(DHCP 옵션)**이 가능.
설정 방법
VPN 서버 설정 (TUN 모드 유지)
고정 IP 할당 (Client Specific Options)
VPN 클라이언트의 Common Name(CN)을 확인 후, 해당 클라이언트에 192.168.50.x 대역의 IP를 수동으로 할당.
NAT & Routing 설정
"Push LAN to clients" 옵션 활성화
"Allow Client to Client Communication" 활성화
"Redirect Internet Traffic" 옵션을 비활성화 (필요에 따라 설정)
장점
모바일에서도 사용 가능 (TAP 모드보다 호환성 높음).
기존 서브넷(192.168.50.x)에서 작동.
단점
일부 장치에서 VPN 연결 후 로컬 네트워크 통신이 원활하지 않을 수 있음.
네트워크 구성에 따라 추가적인 라우팅 설정이 필요할 수도 있음.
추천 방법
TAP 모드 (방법 1): VPN을 통해 공유기의 로컬 네트워크에 완전히 동일한 방식으로 접속하고 싶다면 TAP 모드를 추천. 하지만 모바일 호환성이 떨어짐.
고정 IP 설정 (방법 2): 일반적인 VPN 사용 환경에서는 TUN 모드를 유지하면서, 특정 클라이언트에게 192.168.50.x 대역의 IP를 할당하는 방식이 호환성이 좋음.
만약 ASUS 공유기의 VPN 기능이 충분히 지원되지 않는다면, PFSense, OpenWRT 같은 별도의 VPN 서버를 구축하는 것도 고려할 수 있습니다.
남북전쟁 당시(1861-1865)에는 의료 기술과 위생 관념이 오늘날과 비교해 매우 부족했기 때문에 부상 치료가 제한적이었고, 절단 수술(Amputation)이 일반적인 치료법으로 사용되었습니다. 당시 많은 병사들이 팔다리를 잃게 된 이유를 몇 가지 관점에서 설명하겠습니다.
1. 의료 기술의 한계
1-1. 감염을 막을 방법의 부족
당시는 세균의 존재에 대한 이해가 부족했습니다. 루이 파스퇴르와 조제프 리스터의 위생 개념이 등장하기 전이라, 감염이 부상 치료에서 가장 큰 문제가 되었지만 이를 예방하거나 치료할 방법이 없었습니다.
의사들은 손과 기구를 소독하지 않고 수술했으며, 때로는 같은 도구를 여러 환자에게 그대로 사용했습니다. 이로 인해 병원균이 상처를 통해 침투해 감염(패혈증, 괴저 등)이 심각해졌습니다.
1-2. 항생제의 부재
페니실린 같은 항생제는 남북전쟁이 끝난 뒤인 1928년에 발견되었습니다. 감염이 발생하면 치료할 방법이 없었기 때문에 감염 부위를 절단해 제거하는 것이 생명을 구할 유일한 방법이었습니다.
1-3. 국소 치료 기술의 미비
오늘날처럼 정밀 수술 도구나 현미경적 수술 기술이 없었기 때문에 세밀한 봉합이나 조직 복원이 불가능했습니다. 부상 부위를 살리는 것보다 감염이 번지기 전에 절단하는 것이 더 현실적이라고 여겨졌습니다.
2. 부상의 성격
2-1. 무기의 발전
남북전쟁 때 사용된 무기, 특히 **Minié ball(미니에 볼)**이라는 납 탄환은 이전의 탄환과 달리 더 크고 무겁고 속도가 낮았습니다. 이 탄환은 몸에 들어가면서 큰 충격과 파편을 만들어 뼈를 산산조각 냈습니다.
뼈가 산산조각난 경우 이를 복구하는 것은 불가능에 가까웠고, 치료를 시도하는 것보다 절단이 더 빠르고 안전했습니다.
2-2. 치명적인 감염 위험
당시 전쟁터는 흙과 먼지가 가득한 환경으로, 부상자가 땅에 쓰러지면 상처에 즉시 흙과 이물질이 들어갔습니다. 감염 위험이 매우 높았고, 특히 파편으로 인한 상처는 괴저(gangrene)로 이어질 가능성이 컸습니다. 이러한 부상을 방치하면 사망 가능성이 높아졌습니다.
3. 전시 상황의 제약
3-1. 시간과 자원의 부족
전쟁터에서 의사와 간호사들은 수많은 부상자를 치료해야 했습니다. 절단 수술은 비교적 빠르게 끝낼 수 있어, 생존 가능성이 있는 다른 병사들에게 더 많은 시간을 할애할 수 있었습니다.
한쪽 팔다리를 절단하는 데 걸리는 시간은 10~15분 정도였으며, 대부분의 의사는 하루에 수십 건의 절단 수술을 했습니다.
3-2. 마취제의 한계
남북전쟁 당시 에테르와 클로로포름 같은 마취제가 도입되어 있었지만, 충분히 보급되지 않았거나 남용으로 인해 효과적이지 못한 경우도 많았습니다. 이를 통해 간단한 절단은 가능했지만, 정교한 치료는 수행하기 어려웠습니다.
3-3. 의료진의 부족
대부분의 군 의사들은 훈련을 받지 않은 경우가 많았으며, 전쟁 중 임시로 의사가 된 사람도 많았습니다. 그들은 정교한 외과 수술을 수행할 기술이 부족했기 때문에, 감염을 막기 위해 절단을 선택하는 경우가 많았습니다.
4. 통계로 보는 당시의 절단 수술
남북전쟁에서 약 6만 건의 절단 수술이 이루어졌으며, 이는 전쟁 중 수행된 모든 수술의 약 75%를 차지합니다.
절단 수술의 생존율은 약 75%였지만, 상처가 감염되거나 괴저로 번지면 생존 가능성은 급격히 떨어졌습니다.
5. 절단 수술 후의 삶
당시에는 의수(의족) 기술이 발달하지 않아, 절단 후의 삶은 매우 힘들었습니다. 부상당한 군인들은 전쟁 이후에도 경제적, 사회적 어려움을 겪었습니다. 특히 남부에서는 이런 부상자들이 많아졌고, 남북전쟁의 후유증은 개인과 사회 모두에게 큰 영향을 미쳤습니다.
결론
남북전쟁 당시 부상자의 팔다리가 자주 절단된 이유는 주로 의료 기술과 위생 수준의 한계, 치명적인 감염 위험, 그리고 전쟁터에서의 현실적인 제약 때문이었습니다. 오늘날에는 의료 기술의 발전으로 부상 부위를 절단하지 않고도 회복이 가능한 경우가 많지만, 당시에는 절단이 생명을 구할 수 있는 가장 빠르고 효과적인 방법으로 간주되었습니다.