# 설치
pip install transformers
Hugging Face의 Transformers 라이브러리는 자연어 처리(NLP), 컴퓨터 비전, 음성 인식 등 다양한 분야의 최신 AI 모델을 쉽게 활용할 수 있게 해주는 강력한 도구입니다. 그중에서도 pipeline
함수는 복잡한 모델 사용 과정을 단 몇 줄의 코드로 간소화해주는 마법 같은 기능입니다.
이 글에서는 from transformers import pipeline
을 활용하여 다양한 AI 작업을 손쉽게 수행하는 방법을 알아보겠습니다.
pipeline의 기본 개념
pipeline
함수는 모델 로딩, 전처리, 후처리 등 AI 모델 사용의 모든 단계를 추상화하여 제공합니다. 사용자는 단 몇 줄의 코드로 강력한 AI 모델의 기능을 활용할 수 있습니다.
from transformers import pipeline
# 감정 분석 파이프라인 생성
sentiment_analyzer = pipeline("sentiment-analysis")
# 텍스트 분석
result = sentiment_analyzer("I love using Transformers library!")
print(result)
# [{'label': 'POSITIVE', 'score': 0.9998}]
위 코드에서 pipeline("sentiment-analysis")
는 감정 분석에 적합한 사전 훈련된 모델을 자동으로 다운로드하고 설정합니다. 사용자는 모델 아키텍처, 토큰화, 전처리 등의 복잡한 세부 사항을 알 필요 없이 바로 결과를 얻을 수 있습니다.
주요 파이프라인 종류
Transformers 라이브러리는 다양한 종류의 파이프라인을 제공합니다. 여기서는 가장 많이 사용되는 파이프라인들을 살펴보겠습니다.
1. 텍스트 분류 (Text Classification)
# 감정 분석
classifier = pipeline("sentiment-analysis")
result = classifier("I've been waiting for this movie for years!")
print(result)
# [{'label': 'POSITIVE', 'score': 0.9998}]
# 다중 레이블 분류
classifier = pipeline("text-classification", model="bhadresh-savani/distilbert-base-uncased-emotion")
result = classifier("I just got a new job offer and I'm really excited!")
print(result)
# [{'label': 'joy', 'score': 0.9957}]
2. 텍스트 생성 (Text Generation)
# 텍스트 자동 완성
generator = pipeline("text-generation")
result = generator("In a galaxy far far away", max_length=30, num_return_sequences=2)
print(result)
# [{'generated_text': 'In a galaxy far far away, there was a planet called Krypton...'},
# {'generated_text': 'In a galaxy far far away from Earth, a group of scientists...'}]
# 특정 모델 지정
generator = pipeline("text-generation", model="gpt2-medium")
result = generator("AI is going to", max_length=50)
print(result[0]['generated_text'])
3. 질의응답 (Question Answering)
# 지문 기반 질의응답
qa = pipeline("question-answering")
context = """
허깅 페이스(Hugging Face)는 자연어 처리(NLP) 분야의 오픈소스 라이브러리와 모델을 제공하는 회사입니다.
그들의 Transformers 라이브러리는 BERT, GPT, T5 등 다양한 사전 훈련된 모델을 쉽게 사용할 수 있게 해줍니다.
"""
result = qa(question="허깅 페이스가 제공하는 것은 무엇인가요?", context=context)
print(result)
# {'score': 0.9876, 'start': 44, 'end': 83, 'answer': '자연어 처리(NLP) 분야의 오픈소스 라이브러리와 모델'}
4. 개체명 인식 (Named Entity Recognition)
# 텍스트에서 개체명 추출
ner = pipeline("ner", aggregation_strategy="simple")
result = ner("Apple is looking at buying U.K. startup for $1 billion")
print(result)
# [{'entity_group': 'ORG', 'score': 0.9994, 'word': 'Apple', 'start': 0, 'end': 5},
# {'entity_group': 'LOC', 'score': 0.9987, 'word': 'U.K.', 'start': 27, 'end': 31},
# {'entity_group': 'MONEY', 'score': 0.9979, 'word': '$1 billion', 'start': 44, 'end': 54}]
5. 요약 (Summarization)
# 긴 텍스트 요약
summarizer = pipeline("summarization")
long_text = """
인공지능(AI)은 컴퓨터 시스템이 인간 지능을 시뮬레이션하여 학습, 추론, 자기 교정,
인식 등 다양한 형태의 인간 지능을 모방하는 기술입니다. 인공지능은 머신러닝, 딥러닝 등의
하위 분야를 포함하며, 자연어 처리, 컴퓨터 비전, 음성 인식 등 다양한 응용 분야에서
혁신적인 발전을 이루고 있습니다. 최근에는 GPT, BERT 등의 트랜스포머 모델이
자연어 처리 분야에서 큰 성과를 내며 AI의 발전을 가속화하고 있습니다.
"""
result = summarizer(long_text, max_length=75, min_length=30, do_sample=False)
print(result[0]['summary_text'])
# 인공지능(AI)은 컴퓨터 시스템이 인간 지능을 시뮬레이션하는 기술입니다. 머신러닝, 딥러닝 등의 하위 분야를 포함하며, 자연어 처리, 컴퓨터 비전, 음성 인식 등에서 혁신적인 발전을 이루고 있습니다.
6. 번역 (Translation)
# 영어에서 프랑스어로 번역
translator = pipeline("translation_en_to_fr")
result = translator("Hello, how are you?")
print(result[0]['translation_text'])
# 'Bonjour, comment allez-vous?'
# 다른 언어쌍 지정
translator = pipeline("translation", model="Helsinki-NLP/opus-mt-en-ko")
result = translator("Artificial intelligence is changing the world.")
print(result[0]['translation_text'])
# '인공지능이 세상을 바꾸고 있습니다.'
7. 이미지 분류 (Image Classification)
from PIL import Image
import requests
# 이미지 URL에서 이미지 다운로드
image_url = "https://unsplash.com/photos/example-cat.jpg"
image = Image.open(requests.get(image_url, stream=True).raw)
# 이미지 분류
image_classifier = pipeline("image-classification")
result = image_classifier(image)
print(result)
# [{'score': 0.9974, 'label': 'tabby cat'}, {'score': 0.0022, 'label': 'tiger cat'}, ...]
8. 음성 인식 (Automatic Speech Recognition)
# 음성에서 텍스트로 변환
transcriber = pipeline("automatic-speech-recognition")
audio_file = "path/to/audio.wav"
result = transcriber(audio_file)
print(result["text"])
# "안녕하세요 반갑습니다"
커스텀 모델 및 파라미터 설정
pipeline 함수를 통해 특정 모델을 지정하거나 다양한 파라미터를 설정할 수 있습니다.
# 특정 모델 지정
sentiment_analyzer = pipeline(
"sentiment-analysis",
model="nlptown/bert-base-multilingual-uncased-sentiment"
)
# 장치 지정 (CPU/GPU)
generator = pipeline("text-generation", model="gpt2", device=0) # 0번 GPU 사용
# 다양한 파라미터 설정
results = generator(
"Once upon a time",
max_length=100, # 최대 토큰 수
num_return_sequences=3, # 생성할 시퀀스 수
temperature=0.7, # 생성 다양성 조절 (낮을수록 확정적)
top_k=50, # 상위 k개 토큰만 고려
top_p=0.95, # 확률 합이 p가 될 때까지 상위 토큰 고려
do_sample=True # 샘플링 활성화
)
배치 처리
pipeline은 여러 입력을 한 번에 처리할 수 있어 대량의 데이터를 효율적으로 처리할 수 있습니다.
# 여러 텍스트 배치 처리
texts = [
"I love this product!",
"This doesn't work well.",
"Amazing experience!"
]
results = sentiment_analyzer(texts)
for text, result in zip(texts, results):
print(f"텍스트: '{text}'")
print(f"감정: {result['label']}, 점수: {result['score']:.4f}\n")
토크나이저 및 모델 세부 설정
더 세밀한 제어가 필요한 경우, pipeline 내부의 토크나이저와 모델에 직접 접근할 수 있습니다.
from transformers import AutoTokenizer, AutoModelForSequenceClassification
# 토크나이저와 모델 직접 로드
model_name = "distilbert-base-uncased-finetuned-sst-2-english"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# 커스텀 파이프라인 생성
classifier = pipeline("sentiment-analysis", model=model, tokenizer=tokenizer)
# 긴 텍스트 처리를 위한 설정
classifier = pipeline(
"sentiment-analysis",
model=model,
tokenizer=tokenizer,
truncation=True,
max_length=512
)
실전 예제: 다국어 텍스트 분석 애플리케이션
여러 파이프라인을 조합한 실제 응용 예제를 살펴보겠습니다.
from transformers import pipeline
import pandas as pd
# 다양한 파이프라인 초기화
translator = pipeline("translation", model="Helsinki-NLP/opus-mt-mul-en")
sentiment = pipeline("sentiment-analysis")
ner = pipeline("ner", aggregation_strategy="simple")
summarizer = pipeline("summarization")
def analyze_text(text, source_lang="auto"):
"""텍스트 종합 분석 함수"""
results = {}
# 영어로 번역 (필요한 경우)
if source_lang != "en":
translation = translator(text)[0]['translation_text']
results["translated_text"] = translation
analysis_text = translation
else:
analysis_text = text
# 감정 분석
sentiment_result = sentiment(analysis_text)[0]
results["sentiment"] = {
"label": sentiment_result["label"],
"score": round(sentiment_result["score"], 4)
}
# 개체명 인식
if len(analysis_text) > 5: # 텍스트가 충분히 긴 경우에만
entities = ner(analysis_text)
results["entities"] = [
{
"type": e["entity_group"],
"word": e["word"],
"confidence": round(e["score"], 4)
} for e in entities
]
# 요약 (텍스트가 충분히 긴 경우에만)
if len(analysis_text.split()) > 30:
summary = summarizer(
analysis_text,
max_length=min(100, len(analysis_text.split()) // 2),
min_length=min(30, len(analysis_text.split()) // 3),
do_sample=False
)[0]['summary_text']
results["summary"] = summary
return results
# 테스트
text_samples = [
"Je suis très heureux d'apprendre la programmation avec Python et l'IA. C'est fascinant!",
"Der neue Film von Christopher Nolan war großartig. Die Spezialeffekte waren beeindruckend.",
"Google and Microsoft are investing billions in artificial intelligence research to compete with OpenAI."
]
for i, text in enumerate(text_samples):
print(f"\n--- 샘플 {i+1} ---")
print(f"원문: {text}")
results = analyze_text(text)
if "translated_text" in results:
print(f"번역: {results['translated_text']}")
print(f"감정: {results['sentiment']['label']} ({results['sentiment']['score']})")
if "entities" in results:
print("개체명:")
for entity in results["entities"]:
print(f" - {entity['word']} ({entity['type']}, {entity['confidence']})")
if "summary" in results:
print(f"요약: {results['summary']}")
고급 사용 팁
1. 모델 캐싱 및 관리
from transformers import pipeline
# 모델 캐시 디렉토리 설정
os.environ["TRANSFORMERS_CACHE"] = "/path/to/cache"
# 오프라인 모드 활성화
classifier = pipeline("text-classification", model="distilbert-base-uncased", local_files_only=True)
2. 모델 양자화로 메모리 사용량 줄이기
from transformers import pipeline, BitsAndBytesConfig
import torch
# 4비트 양자화 설정
quantization_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype=torch.float16
)
# 양자화된 모델 로드
generator = pipeline(
"text-generation",
model="bigscience/bloom-1b7",
quantization_config=quantization_config
)
3. 배치 크기 및 병렬 처리 최적화
from transformers import pipeline
import time
classifier = pipeline("text-classification", device=0) # GPU 사용
# 배치 크기 실험
texts = ["Sample text"] * 1000 # 1000개 텍스트
batch_sizes = [1, 4, 8, 16, 32, 64]
for batch_size in batch_sizes:
start_time = time.time()
_ = classifier(texts, batch_size=batch_size)
duration = time.time() - start_time
print(f"배치 크기 {batch_size}: {duration:.2f}초 소요")
결론
Hugging Face의 pipeline
함수는 고급 AI 모델을 단 몇 줄의 코드로 사용할 수 있게 해주는 강력한 도구입니다. 복잡한 모델 로드, 전처리, 후처리 등의 과정을 추상화하여 누구나 쉽게 최신 AI 기술을 활용할 수 있게 해줍니다.
이 글에서 살펴본 다양한 파이프라인과 사용법을 통해, 텍스트 분류, 생성, 번역부터 이미지 인식, 음성 처리까지 폭넓은 AI 기능을 애플리케이션에 통합할 수 있습니다. 특히 초보자에게는 AI 모델의 진입 장벽을 크게 낮춰주며, 전문가에게는 빠른 프로토타이핑과 실험을 가능하게 합니다.
앞으로도 Hugging Face는 더 많은 모델과 기능을 지원할 예정이므로, Transformers 라이브러리의 발전을 지켜보고 적극 활용하는 것이 좋겠습니다.
'파이썬 > Package' 카테고리의 다른 글
[Python MongoDB] pymongo - CRUD 작업 (3) | 2024.11.29 |
---|---|
aiohttp.ClientSession: 비동기 HTTP 클라이언트 세션 (1) | 2024.11.04 |
PyInstaller : Python 애플리케이션 빌드 도구 (0) | 2024.10.31 |
OpenPyXL을 이용한 Python에서의 엑셀 파일 생성 (0) | 2024.09.19 |
Auto Py to Exe: 쉬운 실행 파일 생성 (0) | 2024.09.10 |