Bộ 2 - Trắc nghiệm Xử lý ngôn ngữ tự nhiên online có đáp án

Thời gian còn lại: --:--

Câu 1: Sự khác biệt chính giữa 'Stemming' và 'Lemmatization' trong tiền xử lý văn bản là gì?

Câu 2: Trong kỹ thuật TF-IDF, thành phần 'Inverse Document Frequency' (IDF) có vai trò chủ yếu là gì?

Câu 3: Cơ chế 'Self-Attention' (Tự chú ý) trong kiến trúc Transformer giải quyết vấn đề nào của mô hình RNN truyền thống?

Câu 4: Sự khác biệt cơ bản giữa hai mô hình kiến trúc của Word2Vec là 'Skip-gram' và 'CBOW' là gì?

Câu 5: Chỉ số BLEU (Bilingual Evaluation Understudy) thường được sử dụng để đánh giá tác vụ nào trong NLP?

Câu 6: Mục tiêu chính của tác vụ 'Named Entity Recognition' (NER) là gì?

Câu 7: Vấn đề 'Vanishing Gradient' (Biến mất đạo hàm) trong mạng RNN ảnh hưởng như thế nào đến việc xử lý ngôn ngữ?

Câu 8: Tại sao mô hình BERT được gọi là mô hình ngôn ngữ 'Bidirectional' (Hai chiều)?

Câu 9: Kiến trúc của các mô hình dòng GPT (như GPT-3, GPT-4) chủ yếu dựa trên thành phần nào của Transformer?

Câu 10: Trong bài toán phân loại cảm xúc (Sentiment Analysis) với tập dữ liệu mất cân bằng nghiêm trọng, chỉ số nào phản ánh hiệu năng tốt hơn Accuracy?

Câu 11: Chỉ số 'Perplexity' (Độ rối rắm) thấp trong một mô hình ngôn ngữ có ý nghĩa gì?

Câu 12: Kỹ thuật 'Byte Pair Encoding' (BPE) giải quyết vấn đề gì trong Tokenization?

Câu 13: Hàm Softmax thường được sử dụng ở lớp cuối cùng của mô hình phân loại văn bản để làm gì?

Câu 14: Trong quá trình giải mã (decoding) của mô hình sinh văn bản, 'Beam Search' khác 'Greedy Search' ở điểm nào?

Câu 15: Tại sao các 'Contextual Embeddings' (như của BERT) lại ưu việt hơn 'Static Embeddings' (như Word2Vec)?

Câu 16: Trong ngữ cảnh huấn luyện LLM, 'Zero-shot learning' có nghĩa là gì?

Câu 17: Nhiệm vụ huấn luyện 'Masked Language Modeling' (MLM) của BERT yêu cầu mô hình làm gì?

Câu 18: Chỉ số ROUGE thường được ưu tiên sử dụng để đánh giá tác vụ nào sau đây?

Câu 19: Hàm mất mát 'Cross-Entropy Loss' phổ biến nhất trong tác vụ nào của NLP?

Câu 20: Việc sử dụng 'Multi-head Attention' thay vì một đầu Attention duy nhất trong Transformer có tác dụng gì?

Câu 21: Trong trường hợp nào việc loại bỏ 'Stop words' có thể gây hại đến hiệu suất của mô hình NLP?

Câu 22: Tác vụ 'Dependency Parsing' trong NLP nhằm mục đích gì?

Câu 23: Tham số 'Temperature' (Nhiệt độ) trong quá trình sinh văn bản của LLM điều chỉnh điều gì?

Câu 24: Mục đích của việc sử dụng 'Dropout' trong huấn luyện các mạng thần kinh sâu cho NLP là gì?

Câu 25: Sự khác biệt chính giữa 'Fine-tuning' và 'Prompt Engineering' là gì?