728x90
반응형
SMALL
=

분류 전체보기

인공지능 (AI)/머신러닝 (ML)

15 - GPT-4 그 너머: 대규모 언어 모델(LLM)의 미래와 실전 활용법

최근 몇 년간 인공지능 분야에서 가장 눈에 띄는 기술 중 하나는 LLM(Large Language Model, 대규모 언어 모델)입니다.ChatGPT, Copilot, Gemini와 같은 서비스의 핵심이기도 한 LLM은 이제 단순한 챗봇을 넘어 기업의 업무 혁신, 검색 시스템, 문서 자동화까지 주도하고 있습니다.이번 글에서는 LLM의 개념부터 최신 기술, 대표 적용 사례, 그리고 직접 실행해볼 수 있는 간단한 실습까지 함께 다뤄보겠습니다.1️⃣ 대규모 언어 모델(LLM)이란?LLM은 수십억~수천억 개 이상의 매개변수(파라미터)를 가진 초대형 언어 모델로,방대한 텍스트 데이터를 기반으로 자연어 이해 및 생성 능력을 갖추고 있습니다.✅ 대표 모델들모델소속설명GPT-4OpenAIChatGPT, MS Copil..

인공지능 (AI)/머신러닝 (ML)

14 - 인간처럼 글을 쓰는 인공지능: GPT의 원리와 활용

우리가 사용하는 챗봇, 이메일 자동 완성, 문서 요약, 코드 생성까지.이 모든 일들을 가능하게 해주는 핵심 기술 중 하나가 바로 GPT(Generative Pre-trained Transformer)입니다.이번 글에서는 GPT의 개념과 작동 방식, 대표 활용 사례, 그리고 Hugging Face 라이브러리를 활용한 실습까지 함께 다뤄보겠습니다.1️⃣ GPT란 무엇인가요?GPT(Generative Pre-trained Transformer)는 이름 그대로사전 학습(Pre-trained)된생성형 언어 모델(Generative Language Model)이며,Transformer 아키텍처를 기반으로 만들어졌습니다.✅ GPT의 핵심 특징특징설명✅ 비지도 학습정답이 없는 방대한 텍스트 데이터를 통해 언어의 규칙을..

인공지능 (AI)/머신러닝 (ML)

13 - BERT와 GPT는 어떻게 만들어졌을까?: Transformer 모델의 이해

자연어 처리(NLP) 분야에서 최근 몇 년 사이 가장 눈에 띄게 떠오른 기술은 단연 Transformer입니다.챗GPT, 번역기, 요약기 등 우리가 자주 사용하는 AI 서비스의 핵심에도 이 구조가 자리하고 있습니다.이번 글에서는 Transformer의 개념부터 BERT와 GPT의 차이, 그리고 실제 감성 분석 실습까지 함께 살펴보겠습니다.1️⃣ Transformer란 무엇인가요?Transformer는 2017년 논문 "Attention is All You Need"에서 처음 제안된 딥러닝 아키텍처입니다.기존 RNN, LSTM이 가지고 있던 순차적 처리의 한계를 극복하며, 현재 NLP의 표준 구조로 자리 잡았습니다.✅ Transformer의 특징장점설명✅ 병렬 연산 가능RNN과 달리 전체 문장을 동시에 처..

인공지능 (AI)/머신러닝 (ML)

12 - 단어를 수치로 표현하다: Word2Vec과 딥러닝 기반 NLP

사람은 단어의 의미를 문맥과 경험을 통해 자연스럽게 이해하지만, 컴퓨터는 단어를 단순한 문자열로만 인식합니다.이 문제를 해결하기 위한 대표적인 방법이 바로 Word2Vec입니다.이번 글에서는 단어를 벡터로 표현해 의미를 이해하게 만드는 Word2Vec의 작동 원리와 실습 방법을 함께 소개해드리겠습니다.1️⃣ Word2Vec이란 무엇인가요?Word2Vec은 단어를 고차원 공간의 벡터(Vector)로 변환하는 딥러닝 기반 자연어 처리(NLP) 기술입니다.이 벡터는 단어의 의미와 문맥적 유사성을 반영하며, 아래와 같은 특징을 가지고 있습니다.✅ Word2Vec의 특징의미가 비슷한 단어일수록 벡터 공간에서 가까운 위치에 존재합니다.예: "king" - "man" + "woman" ≈ "queen"→ 단어 간 의..

인공지능 (AI)/머신러닝 (ML)

11 - 컴퓨터가 언어를 이해한다면?: 자연어 처리와 텍스트 데이터 분석

우리가 매일 사용하는 말과 글, 즉 자연어(Natural Language)를 컴퓨터가 이해할 수 있다면 어떤 일들이 가능해질까요?이번 글에서는 자연어 처리(Natural Language Processing, NLP)의 기초 개념과 함께 텍스트 데이터를 다루는 기본적인 분석 기법들을 소개합니다.챗봇, 감성 분석, 검색 엔진 등 우리가 자주 사용하는 서비스들의 핵심 기술이 바로 여기에서 시작됩니다.1️⃣ 자연어 처리(NLP)란 무엇인가요?자연어 처리(NLP)는 컴퓨터가 사람의 언어(텍스트, 음성)를 이해하고, 해석하고, 생성하는 기술입니다.사람에게는 자연스러운 언어가 컴퓨터에게는 굉장히 복잡하기 때문에, 이를 분석하기 위한 다양한 처리 기법들이 필요합니다.✅ 대표적인 활용 사례분야설명텍스트 분석문서 요약, ..

인공지능 (AI)/머신러닝 (ML)

10 - 나에게 딱 맞는 콘텐츠는 어떻게 찾아질까?: 추천 시스템과 협업 필터링

넷플릭스에서 취향 저격 드라마를 추천받거나, 아마존에서 평소 관심 있던 제품을 추천받은 경험 있으신가요?이러한 맞춤형 추천의 중심에는 바로 추천 시스템(Recommendation System)이 있습니다.이번 글에서는 추천 시스템의 기본 개념과 함께, 그중 가장 널리 쓰이는 협업 필터링(Collaborative Filtering) 기법을 알아보겠습니다.1️⃣ 추천 시스템이란?추천 시스템은 사용자의 행동 데이터를 바탕으로 개인의 취향에 맞는 아이템(상품, 콘텐츠 등)을 예측하고 추천하는 시스템입니다.단순히 인기 순위를 보여주는 것이 아니라, 개개인의 선호에 따라 달라지는 결과를 제공하는 것이 핵심입니다.✅ 추천 시스템의 대표 사례넷플릭스(Netflix): 시청 이력을 기반으로 유사한 영화/드라마 추천아마존..

인공지능 (AI)/머신러닝 (ML)

9 - 복잡한 데이터를 간단하게 보기: 차원 축소와 PCA, t-SNE

고차원 데이터는 정보가 풍부하지만, 그만큼 해석과 시각화가 어려워지고 계산 비용도 증가합니다.이번 글에서는 이런 고차원 데이터를 보다 이해하기 쉬운 저차원으로 변환하는 기법인 차원 축소(Dimensionality Reduction)에 대해 알아보고, 대표적인 알고리즘인 PCA와 t-SNE를 실습을 통해 체험해보겠습니다.1️⃣ 차원 축소란 무엇인가요?차원 축소는 고차원 데이터를 손실을 최소화하면서 보다 적은 수의 특성(Feature)으로 변환하는 기법입니다.모델 성능 향상, 계산 효율성 확보, 시각화 목적 등 다양한 이유로 사용됩니다.✅ 차원 축소의 장점노이즈 감소 → 과적합(Overfitting) 방지시각화 용이 → 2D, 3D 공간에서 데이터 구조를 파악할 수 있음속도 개선 → 고차원일수록 느려지는 계..

인공지능 (AI)/머신러닝 (ML)

8 -한층 더 정교한 군집화: 계층적 군집과 DBSCAN

이전 글에서는 K-Means 클러스터링을 통해 비지도 학습에서 데이터를 그룹으로 나누는 기본적인 방법을 알아보았습니다.이번에는 그보다 더 유연하고 복잡한 데이터를 다룰 수 있는 고급 군집 기법 두 가지인 계층적 군집(Hierarchical Clustering)과 DBSCAN을 소개하겠습니다.1️⃣ 계층적 군집 (Hierarchical Clustering)계층적 군집은 데이터를 군집화할 때 계층적인 구조를 만들어나가는 방식입니다.K-Means와는 달리, 클러스터 개수를 사전에 지정할 필요가 없다는 점이 큰 특징입니다.이 구조는 덴드로그램(Dendrogram)이라는 트리 형태의 그래프로 시각화할 수 있어 해석이 직관적입니다.✅ 주요 방식 방식 설명병합형(Agglomerative)각 데이터를 하나의 클러스터로..

728x90
반응형
LIST
gsroot
'분류 전체보기' 카테고리의 글 목록 (6 Page)