본문 바로가기
AI

GPT-OSS 란? 설치 및 이용하면 좋은점 (PC에 설치하는 GPT)

by Rainbound-IT 2025. 8. 10.
반응형

목차

     

     

    2025년 8월 5일 부로 gpt-oss가 무료로 공개되었습니다.

     

    로컬로 o4‑mini, o3‑mini 운영할수 있게 된거죠. 얼마전에 5버전이 나왔는데 이전버전을 바로 무료 공개해서 좀 놀랐네요.

    일반인 기준으론 04는 거의 못돌린다고 보고 03정도 돌릴수 있는데 이것도 그래픽카드 성능등이 굉장히 높아야 할것 같네요.

    되기만 한다면 api로 gpt에 무한으로 돌릴수 있어서 탐이 나긴합니다.

     

     

    설치방법은 정말 간단하지만 링크를 걸어드리겠습니다.

    https://gpt-oss.com/

     

    gpt-oss

     

    gpt-oss.com

     

     

     

    1. GPT-OSS란?

    • gpt‑oss‑120Bgpt‑oss‑20B는 OpenAI에서 Apache 2.0 라이선스로 공개한 오픈 웨이트(모델 가중치 공개) 언어 모델입니다. 이는 GPT‑2 이후 처음 있는 오픈소스 공개입니다.
    • 둘 다 Mixture‑of‑Experts (MoE) 아키텍처를 사용해, 전체 파라미터 중 일부만 매 토큰마다 활성화함으로써 추론 효율성과 성능을 높였습니다.

    2. 주요 사양 및 성능 비교


     

    모델 총 파라미터 활성
    파라미터
    토큰 길이 하드웨어 요구
    gpt‑oss‑20B 약 21B 약 3.6B 최대 128k 16 GB RAM (GPU 또는 시스템)
    gpt-oss-120B 약 117B 약 5.1B 최대 128k 단일 80 GB GPU (예: A100 또는 H100), 또는 60-80 GB VRAM 조합
     

    성능

    • gpt‑oss‑120B는 OpenAI의 일부 폐쇄형 모델(o4‑mini 등)과 거의 동등한 성능을 보이며, 특히 추론, 수학/건강 관련 벤치마크에서 강점이 있습니다.
    • gpt‑oss‑20B도 o3‑mini와 유사하거나 이를 웃도는 성능을 보이며, 엣지 디바이스 실행이 가능합니다.

    3. 권장 시스템 사양

    GPT-OSS-20B (소비자용)

    • 최소: 16 GB RAM (GPU 또는 시스템), 여유 저장공간 약 15 GB
    • 권장: 32 GB 이상 RAM, 빠른 SSD 또는 NVMe, 가능하면 RTX 4060 이상 GPU나 Apple Silicon(M1/M2) 환경

    GPT-OSS-120B (머신 러닝 전문가용)

    • 권장 GPU: NVIDIA H100 (40 GB 이상) 1개 또는 A100 80 GB
    • 시스템 메모리: 최소 32 GB, 멀티작업을 고려해 64 GB 이상 권장
    • 스토리지: 200 GB 이상, 빠른 NVMe SSD 권장
    • 운영체제: Linux (드라이버 및 Docker 지원 용이)

    좀 더 현실적인 소비자 시스템에서는 RTX 3090/4080 수준 GPU와 24–36 GB 유니파이드 메모리에서도 gpt‑oss‑20B 실행이 가능하다고 합니다.


    4. 왜 gpt-oss가 중요한가?

    • 투명성과 맞춤화: 모델 파라미터가 공개되어 있어, 누구나 로컬에서 실행, 분석, 파인튜닝이 가능합니다.
    • 보안 및 접근성: 프롬프트 인젝션 방어 및 유해 정보 필터링 등 안전 장치를 갖추었고, Red Teaming 챌린지로 보안성을 검토 중입니다.
    • 플랫폼 지원: Hugging Face, AWS, Azure, Ollama, LM Studio 등 다양한 플랫폼에서 활용 가능

     

     

    5. 로컬에  설치 시 얻는 이점

    • 보안/프라이버시
      코드, 로그, 고객 데이터가 외부로 안 나가요. 금융/내부망(인터넷 차단) 환경에서도 쓸 수 있고, 컴플라이언스 이슈 최소화.
    • 지연시간↓·가용성↑
      네트워크 왕복이 없어서 응답이 빠르고, 외부 API 장애/요금변경의 영향을 덜 받아요. 밤샘 배포 때도 안정적.
    • 비용 통제
      대량 배치 생성·요약·로그 분석처럼 토큰 많이 쓰는 작업은 API 과금보다 로컬이 유리할 때가 많습니다(특히 반복 자동화).
    • 커스터마이징 자유도
      사내 문서/로그로 LoRA·QLoRA 미세튜닝, RAG 연결, 금칙어·톤 조절 같은 정책을 모델에 녹일 수 있어요.
    • 내 업무에 딱 맞춘 도구화
      • “에러 로그 → 원인 후보 + 점검 순서” 자동 리포트
      • Terraform/Helm 값에서 드리프트 의심 포인트 추려주기
      • PR 설명문/릴리즈노트/런북 초안 자동 생성
      • NGINX/ALB 규칙이나 K8s YAML을 요구사항에서 바로 스캐폴딩
      • 한국어/영문 사내 문서 양방향 요약/번역 파이프라인
    • 오프라인/내부망 운영
      지금 환경처럼 외부 접속 제한이 있어도: 점검실, DR센터, 폐쇄망에서 그대로 활용 가능.
    • 모델 실험·검증 플레이그라운드
      프롬프트 실험, 문서 포맷 표준화, 자동 채점/평가 루틴까지 로컬에서 반복 테스트.
    • 엣지 파이프라인 구성
      노트북/작업서버 옆에서 직접 돌려서, 로그 수집→요약→태깅→인덱싱까지 한 번에.

     

     

     

     

    참고문서

    https://openai.com/ko-KR/index/introducing-gpt-oss/

     

    반응형

    댓글