Bộ 7 - Trắc nghiệm Xử lý ngôn ngữ tự nhiên online có đáp án

Thời gian còn lại: --:--

Câu 1: Trong xử lý ngôn ngữ tự nhiên, kỹ thuật nào giúp đưa các biến thể của từ về một dạng gốc bằng cách cắt bỏ các hậu tố dựa trên các quy tắc cố định mà không cần tra từ điển?

Câu 2: Chỉ số TF-IDF (Term Frequency - Inverse Document Frequency) được sử dụng chủ yếu để làm gì trong các tác vụ phân tích văn bản?

Câu 3: Trong mô hình Word2Vec, kiến trúc Skip-gram hoạt động dựa trên nguyên lý cốt lõi nào?

Câu 4: Để đánh giá chất lượng của một mô hình ngôn ngữ (Language Model), chỉ số Perplexity (Độ hỗn loạn) nên có giá trị như thế nào để được coi là tốt?

Câu 5: Độ đo BLEU (Bilingual Evaluation Understudy) thường được ứng dụng phổ biến nhất trong việc đánh giá hiệu năng của tác vụ nào?

Câu 6: Cơ chế 'Self-Attention' trong kiến trúc Transformer giải quyết vấn đề gì hiệu quả hơn so với mạng RNN truyền thống?

Câu 7: Mô hình BERT (Bidirectional Encoder Representations from Transformers) được xây dựng dựa trên thành phần nào của kiến trúc Transformer?

Câu 8: Tại sao việc tách từ (Tokenization) trong tiếng Việt lại được coi là một thách thức lớn hơn so với tiếng Anh?

Câu 9: Kỹ thuật 'Stopwords removal' nhằm mục đích chính là gì trong giai đoạn tiền xử lý dữ liệu NLP?

Câu 10: Nhiệm vụ chính của bài toán Named Entity Recognition (NER) là gì?

Câu 11: Trong mạng LSTM (Long Short-Term Memory), thành phần nào chịu trách nhiệm quyết định thông tin nào từ trạng thái trước đó sẽ bị loại bỏ?

Câu 12: Khác biệt quan trọng nhất giữa Word2Vec và FastText là gì?

Câu 13: Chiến lược 'Beam Search' trong các bài toán sinh văn bản (Text Generation) giúp khắc phục nhược điểm nào của 'Greedy Search'?

Câu 14: Hàm kích hoạt (Activation Function) nào thường được sử dụng ở lớp cuối cùng của mô hình phân loại văn bản đa lớp (Multi-class Classification)?

Câu 15: Khả năng 'Zero-shot learning' của các mô hình ngôn ngữ lớn (LLM) như GPT-4 có nghĩa là gì?

Câu 16: Độ đo ROUGE (Recall-Oriented Understudy for Gisting Evaluation) thường được sử dụng ưu tiên để đánh giá tác vụ nào?

Câu 17: Trong bài toán gán nhãn loại từ (POS Tagging), hiện tượng một từ có thể đóng nhiều vai trò ngữ pháp khác nhau tùy ngữ cảnh được gọi là gì?

Câu 18: Kỹ thuật 'Dropout' trong huấn luyện mạng nơ-ron cho NLP có vai trò chính là gì?

Câu 19: Mô hình N-gram dựa trên giả thuyết Markov bậc k có nghĩa là gì?

Câu 20: Phương pháp 'Byte Pair Encoding' (BPE) giải quyết vấn đề gì trong Tokenization cho các mô hình ngôn ngữ hiện đại?

Câu 21: Trong phân tích cú pháp (Parsing), 'Dependency Parsing' khác với 'Constituency Parsing' ở điểm nào?

Câu 22: Mục tiêu của việc sử dụng 'Cosine Similarity' thay vì 'Euclidean Distance' khi so sánh các vector word embedding là gì?

Câu 23: Kỹ thuật 'LoRA' (Low-Rank Adaptation) được sử dụng trong quá trình tinh chỉnh (Fine-tuning) mô hình ngôn ngữ lớn nhằm mục đích gì?

Câu 24: Tại sao các mô hình dựa trên Transformer (như GPT) cần có 'Positional Encoding'?

Câu 25: Trong hệ thống dịch máy nơ-ron (NMT), thành phần 'Context Vector' được tạo ra từ đâu?