[AI] AI 용어 정리
AI 용어 정리
Artificial Intelligence : 컴퓨터 프로그램이 인간의 학습 능력, 추론 능력, 언어 이해 능력, 시각 및 청각 인식 능력 등 인간의 지적 능력을 모방하는 기술.
Machine Learning : 컴퓨터가 데이터를 분석하고 패턴을 인식하여 스스로 학습하고 결정을 내릴 수 있는 능력을 갖춘 기술.
Deep Learning : 인공 신경망을 사용하여 컴퓨터가 대규모 데이터 세트에서 복잡한 패턴을 학습하는 기술.
Training Data : 기계 학습 모델을 훈련시키기 위한 입력 데이터 세트.
Test Data : 기계 학습 모델의 성능을 평가하기 위한 입력 데이터 세트.
Model : 기계 학습 알고리즘을 사용하여 생성된 예측 모형.
Classification : 기계 학습 모델이 입력 데이터를 분류하고 레이블을 지정하는 작업.
Regression : 기계 학습 모델이 입력 데이터와 출력 값 사이의 관계를 학습하여 값을 예측하는 작업.
Clustering : 기계 학습 모델이 입력 데이터를 비슷한 그룹으로 묶는 작업.
Reinforcement Learning : 컴퓨터가 행동을 선택하고 그 결과에 따라 보상을 받아 최적의 결과를 찾는 학습 방법.
Neural Network : 인공지능 모델 중 하나로, 뇌의 뉴런을 모방하여 입력 데이터와 출력 값을 연결하는 알고리즘.
Model Evaluation : 테스트 데이터를 사용하여 모델의 성능을 측정하고 평가하는 작업.
Overfitting : 과적합 현상(모델이 훈련 데이터에 지나치게 적합해져 테스트 데이터에서 성능이 떨어지는 현상)
Underfitting : 과소적합 현상(모델이 훈련 데이터에 적합하지 않아 테스트 데이터에서도 성능이 떨어지는 현상)
Accuracy : 모델이 올바르게 분류한 데이터 비율.
Gradient Descent : 경사 하강법 - 기계 학습 모델이 최적의 매개 변수를 찾기 위해 비용 함수의 기울기를 따라 이동하는 최적화 알고리즘.
Learning Rate : 경사 하강법에서 매개 변수를 업데이트할 때 적용되는 스칼라 값.
Mini-batch : 훈련 데이터를 작은 그룹으로 나누어 한 번에 모델에 공급하는 방식.
Cross-validation : 모델이 일반화되도록 훈련 및 평가를 여러 번 반복하는 검증 방법.
Hyperparameter : 기계 학습 모델의 학습 과정 및 알고리즘에 영향을 미치는 매개 변수.
Generalization : 모델이 훈련 데이터에서 학습한 내용을 새로운 데이터에 적용하는 능력.
Unsupervised Learning : 입력 데이터에 레이블이 없는 경우 사용되는 기계 학습 방법.
Supervised Learning : 입력 데이터에 레이블이 있는 경우 사용되는 기계 학습 방법.
Unsupervised Pre-training : 미리 훈련된 모델을 초기 가중치로 사용하여 다른 작업에 대한 모델을 학습하는 방법.
Data Mining : 대규모 데이터 세트에서 유용한 정보를 추출하는 프로세스.
Backpropagation : 신경망에서 오차를 최소화하기 위해 출력 층에서 입력 층으로 가중치를 역으로 업데이트하는 알고리즘.
Weights : 기계 학습 모델에서 입력 데이터와 출력 값 사이의 관계를 표현하는 매개 변수.
Bias : 기계 학습 모델에서 출력 값을 조정하는 매개 변수.
Error : 모델이 예측한 값과 실제 값 사이의 차이.
Sampling : 대규모 데이터 세트에서 일부 데이터를 선택하는 과정.
Random Forest : 다수의 의사 결정 트리를 조합하여 분류 및 회귀 분석을 수행하는 앙상블 기법.
Batch : 한 번에 모델에 입력되는 데이터의 양.
Epoch : 전체 데이터 세트에 대해 모델이 훈련되는 횟수.
Learning Rate : 경사하강법에서 가중치와 편향을 업데이트하는 데 사용되는 매개 변수.
Regularization : 모델이 오버피팅되지 않도록 가중치를 제한하는 기술.
Dropout : 모델에서 무작위로 선택된 뉴런을 제거하여 오버피팅을 방지하는 기술.
Convolutional Neural Network : 이미지 처리와 같은 고차원 데이터에서 작동하는 인공 신경망.
Recurrent Neural Network : 시퀀스 데이터에서 작동하는 인공 신경망.
Generative Adversarial Network : 이미지, 음성 및 비디오 같은 데이터를 생성하는 인공 신경망.
Natural Language Processing : 인간의 언어를 기계가 이해하고 분석하는 기술.
Tokenization : 자연어 문장을 작은 단위로 나누는 작업.
Normalization : 자연어 문장을 규칙에 따라 변환하여 일관된 형식으로 만드는 작업.
Word Embedding : 단어를 벡터 공간에 매핑하여 컴퓨터가 이해할 수 있는 형식으로 변환하는 작업.
Sentiment Analysis : 텍스트 데이터의 긍정적 또는 부정적인 감정을 분류하는 기술.
Topic Modeling : 텍스트 데이터에서 주제를 추출하는 기술.
Token : 텍스트를 분석하기 위해 나누는 최소 단위로, 단어, 구두점, 숫자 등이 될 수 있음.
Corpus : 자연어 처리 연구를 위해 모아둔 텍스트 데이터의 집합.
Vocabulary : 코퍼스에서 추출한 고유한 단어들의 집합.
Embedding : 단어를 벡터 형태로 변환하여 수치화하는 방법.
One-hot Encoding : 단어를 벡터의 특정 위치에 1을 표시하고 나머지 위치에 0을 두는 방식으로 표현하는 방법.
Bag of Words(BoW) : 문서를 단어들의 순서를 고려하지 않고 단순히 빈도를 카운팅하여 표현하는 방법.
TF-IDF(Term Frequency-Inverse Document Frequency) : 단어의 빈도와 역문서 빈도를 사용하여 단어의 중요도를 측정하는 방법.
Word2Vec : 단어의 의미를 벡터 공간에 학습하여 표현하는 방법. 주로 Skip-gram과 CBOW 모델이 있음.
GloVe(Global Vectors for Word Representation) : 전역 단어 공동 발생 행렬을 이용하여 단어 벡터를 학습하는 방법.
Sequence-to-Sequence(Seq2Seq) : 입력 시퀀스를 다른 시퀀스로 변환하는 모델로, 주로 기계 번역에 사용됨.
Attention Mechanism : 입력 시퀀스의 모든 위치에 대한 가중합을 계산하여 특정 부분에 집중할 수 있게 하는 방법.
Transformer : Attention Mechanism을 기반으로 한 모델로, RNN 없이 병렬 처리가 가능하여 성능이 우수함.
BERT(Bidirectional Encoder Representations from Transformers) : 문맥을 양방향으로 학습하는 트랜스포머 기반의 사전 학습 모델
GPT(Generative Pre-trained Transformer) : 주어진 문맥에 따라 텍스트를 생성하는 트랜스포머 기반의 사전 학습 모델.
Named Entity Recognition(NER) : 텍스트에서 사람, 장소, 기관 등의 고유 명사를 인식하는 작업.
Part-of-Speech Tagging(POS Tagging) : 단어의 품사를 식별하여 태그를 부여하는 작업.
Dependency Parsing : 문장의 구조를 파악하여 단어들 간의 의존 관계를 분석하는 작업.
Language Model : 텍스트 데이터를 기반으로 다음 단어를 예측하거나 문장을 생성하는 모델.