반응형 LLM4 [논문 리뷰] CLIP: Learning Transferable Visual Models From Natural Language Supervision 교수님께서 추천하신 vision-language multi modal 의 Baseline model인 CLIP 논문을 읽고 정리해보았다. Abstract기존의 컴퓨터 비전 모델들은 주어진 고정된 레이블 집합을 예측하도록 훈련되는 경우가 많다. 따라서 새로운 범주의 이미지를 분류하려면 추가 라벨링 작업(“나비” 대신 “잠자리”와 같은 새로운 카테고리)에 의존해야 한다.NLP 분야는 방대한 웹 텍스트를 활용하여 자연어 자체로 풍부한 감독(supervision)을 얻어내고 있으며, GPT-3 같은 사례를 통해 대규모 프리트레이닝 + 제로샷(Zero-shot)으로도 많은 태스크를 수행 가능해졌다. After pre-training, natural language is used to reference lear.. 2025. 1. 20. Colab에서 Flask로 배포하기 학교 프로젝트 도중 fine-tune한 자연어모델을 내려받기 위해 torch.save로 pickle을 사용하여 직렬화하여 디스크에 저장 후 Flask를 사용해 백앤드와 연결하여 아키텍처를 완성할 계획이었다. 여기서 문제가 발생했다, fine-tune한 모델이 거대언어모델이라 저장이 쉽지않고 고성능 GPU와 많은 메모리 사용량을 요구했기 때문에 로컬에서 서빙할수가 없었다. 해결책을 찾았다. 바로 Colab 자체에서 배포하는것. 가장 먼저, Colab에서 flask, ngrok을 설치 해주고, 코드에 ngrok을 import하자!pip install flask !pip install ngrok !pip install pyngrok pyngrok 을 설치해준 이유는 ngrok 서비스를 Python에서 쉽게 사.. 2024. 6. 25. BERT로 감정 분석 실습 해보기 자연어처리 수업 도중 과제가 나와서 LLM으로 감정분석 을 해볼수 있는 기회가 생겼다. 가장 먼저 sentiment analysis란 텍스트 데이터에서 감정 상태를 식별하는 자연어 처리의 중요한 과제이다. 오늘은 BERT를 사용해 감정 분석을 수행하고 그 성능을 검증해 보겠다. 모델의 코드 설명, 성능 지표 분석, 모델 특성 및 성능 비교를 포함한다. BERT 모델을 사용한 감정 분석 데이터 전처리BERT 모델의 경우, 텍스트 데이터를 전처리하여 모델에 적합한 형식으로 변환한다. 전처리 단계는 다음과 같은 이유로 수행된다. l URL 제거: 텍스트 데이터에 포함된 URL은 감정 분석에 불필요한 잡음이 될 수 있으므로 제거l 멘션 제거: 소셜 미디어 텍스트에서 멘션(`@username`)은.. 2024. 6. 20. 챗봇 구현을 위한 데이터로더 기능 테스트 학교 Alpha프로젝트를 위한 많은 AI 기능을 처리하기 위한 자연어처리 인공지능 모델을 만들기 위해Pytorch, Tensorflow, 논문, flask, 각종 모델과 API 스터디를 했다. 스터디 결과 원하는 기능인 기술 스택 추천 기능, 코드 블럭 -> 텍스트기반 코드 변환 기능, Q&A 챗봇 기능을 구현 하려면 엄청난 데이터를 요구하는 대규모 언어 모델인 LLM이 필요하다고 느꼈다. 대규모 LLM 모델을 다루기전에 GPT-2, 3로 파인튜닝 코드를 작성해보면서 감을 잡았다. 가장 첫 번째로 해볼 것은 배포를 위한 Flask 스터디와 구현 방법 탐구이다. OpenAI의 API 토큰을 받아온 뒤 작성한Model2의 코드이다. app.pyimport openaifrom fl.. 2024. 5. 22. 이전 1 다음 반응형