Liwon Ace AI/ML Platform

Enterprise Linux AI

대규모 언어 모델의 개발, 테스트, 실행을 위한
파운데이션 모델 플랫폼으로
엔터프라이즈 애플리케이션을 위한
생성형 AI를 구현합니다

제품 개요

Red Hat Enterprise Linux AI란?

RHEL AI는 Granite 패밀리 대규모 언어 모델을 원활하게 개발, 테스트, 실행할 수 있는 파운데이션 모델 플랫폼으로, 최적화된 추론 기능을 제공합니다

🧠

Granite 3.0 모델

IBM과 Red Hat이 개발한 오픈소스 라이선스 기반의 엔터프라이즈급 LLM 포함

🔧

InstructLab 도구

최소한의 ML 경험으로도 모델을 커스터마이징하고 정렬할 수 있는 혁신적인 도구

📦

부팅 가능 컨테이너

RHEL 부팅 가능 컨테이너 이미지로 제공되어 AI 플랫폼을 쉽게 확장하고 관리할 수 있습니다

핵심 기능

엔터프라이즈 AI를 위한
완벽한 플랫폼

생성형 AI 혁신을
가속화

RHEL AI는 오픈소스 접근 방식으로
신뢰성과 투명성을 제공하며,
비용을 절감하고 진입 장벽을
제거합니다

  • 🚀

    AI Inference Server 포함

    일관되고 빠르며 비용 효율적인 모델 배포를 위한 광범위한 하드웨어 지원

  • 가속기별 라이선스

    GPU/가속기당 라이선스로 유연한 확장과 비용 관리 가능

  • 🔄

    합성 데이터 생성(SDG)

    교사 LLM을 사용하여 대량의 인공 데이터를 생성하고 다른 LLM 훈련에 활용

# RHEL AI 설치
$ sudo dnf install rhel-ai

# Granite 모델 로드
$ ilab model download \
  --repository ibm/granite

# InstructLab으로 모델 튜닝
$ ilab model train \
  --data-path ./custom-data \
  --num-epochs 3

# 모델 서빙 시작
$ ilab model serve \
  --model-path ./tuned-model
포함된 구성 요소

RHEL AI에 포함된 도구들

Red Hat AI Inference Server
vLLM 기반 고성능 추론 엔진
InstructLab
모델 정렬 및 튜닝 도구
Granite Models
오픈소스 라이선스 LLM
PyTorch
딥러닝 프레임워크
NVIDIA Drivers
GPU 가속 드라이버
AMD Drivers
ROCm 가속 드라이버
Intel Drivers
oneAPI 가속 드라이버
Runtime Libraries
AI 런타임 라이브러리

Enterprise Linux AI 시작하기

엔터프라이즈급 보안과 지원으로 생성형 AI 혁신을 가속화하세요