Bộ 3 - Trắc nghiệm Xử lý ngôn ngữ tự nhiên online có đáp án
Thời gian còn lại: --:--
Kết quả của bạn:
Bạn đã đúng:
Bạn đã sai:
Tổng số câu:
Câu 1:Mục tiêu cốt lõi của lĩnh vực Xử lý ngôn ngữ tự nhiên (NLP) là gì?
💡 Lời giải chi tiết:
Theo định nghĩa chuẩn trong lĩnh vực AI, NLP tập trung vào việc cho phép máy tính tương tác, hiểu và mô phỏng ngôn ngữ tự nhiên của con người. Kết luận Lý giải Xây dựng các hệ thống có khả năng hiểu và tạo ra ngôn ngữ con người
Câu 2:Trong giai đoạn tiền xử lý văn bản, 'Tokenization' là quá trình gì?
💡 Lời giải chi tiết:
Tokenization là bước cơ bản đầu tiên nhằm phân tách chuỗi văn bản liên tục thành các thành phần riêng lẻ gọi là token. Kết luận Lý giải Chia nhỏ một đoạn văn bản thành các đơn vị nhỏ hơn như từ hoặc cụm từ
Câu 3:Sự khác biệt chính giữa Stemming và Lemmatization là gì?
💡 Lời giải chi tiết:
Trong khi Stemming chỉ cắt tỉa hậu tố một cách cơ học, Lemmatization phân tích hình thái để đưa từ về 'lemma' chính xác theo từ điển. Kết luận Lý giải Lemmatization sử dụng kiến thức ngôn ngữ học để đưa từ về dạng gốc có nghĩa
Câu 4:Tại sao việc loại bỏ 'Stop words' (từ dừng) lại thường được thực hiện trong các bài toán phân loại văn bản?
💡 Lời giải chi tiết:
Các từ như 'và', 'của', 'là' xuất hiện ở mọi văn bản nên không giúp ích nhiều cho việc phân biệt các chủ đề khác nhau. Kết luận Lý giải Để giảm nhiễu vì chúng xuất hiện quá thường xuyên nhưng ít mang giá trị phân biệt
Câu 5:Trong công thức TF-IDF, thành phần IDF (Inverse Document Frequency) có tác dụng gì?
💡 Lời giải chi tiết:
IDF đo lường mức độ quan trọng của một từ bằng cách nghịch đảo tần suất xuất hiện của nó trên toàn bộ tập dữ liệu. Kết luận Lý giải Giảm trọng số của các từ phổ biến và tăng trọng số cho các từ hiếm mang tính đặc trưng
Câu 6:Kỹ thuật Word2Vec của Google sử dụng mô hình nào để dự đoán từ mục tiêu dựa trên các từ ngữ cảnh xung quanh?
💡 Lời giải chi tiết:
Theo kiến trúc Word2Vec, CBOW dự đoán từ ở giữa dựa trên ngữ cảnh, trong khi Skip-gram dự đoán ngữ cảnh từ một từ cho trước. Kết luận Lý giải Continuous Bag of Words (CBOW)
Câu 7:Phép đo phổ biến nhất để xác định độ tương đồng giữa hai vectơ từ (word embeddings) là gì?
💡 Lời giải chi tiết:
Cosine Similarity đo góc giữa hai vectơ, phản ánh mức độ tương quan về ngữ nghĩa độc lập với độ dài của vectơ. Kết luận Lý giải Độ tương đồng Cosine (Cosine Similarity)
Câu 8:Nhược điểm lớn nhất của mạng nơ-ron hồi quy (RNN) truyền thống khi xử lý các câu dài là gì?
💡 Lời giải chi tiết:
Khi chuỗi quá dài, thông tin từ các bước thời gian đầu tiên bị suy giảm mạnh trong quá trình lan truyền ngược. Kết luận Lý giải Vấn đề biến mất đạo hàm (Vanishing Gradient) khiến khó học được phụ thuộc xa
Câu 9:Trong mô hình LSTM, cổng nào chịu trách nhiệm quyết định thông tin nào từ trạng thái tế bào trước đó sẽ bị loại bỏ?
💡 Lời giải chi tiết:
Cổng quên (Forget gate) sử dụng hàm sigmoid để quyết định tỷ lệ thông tin cũ được giữ lại hoặc xóa bỏ. Kết luận Lý giải Cổng quên (Forget gate)
Câu 10:Cơ chế chính giúp kiến trúc Transformer vượt trội hơn RNN trong việc song song hóa huấn luyện là gì?
💡 Lời giải chi tiết:
Transformer loại bỏ tính tuần tự của RNN, thay vào đó dùng Self-Attention để các từ trong câu tương tác với nhau đồng thời. Kết luận Lý giải Cơ chế Chú ý (Attention mechanism) cho phép xử lý toàn bộ chuỗi cùng lúc
Câu 11:Mô hình BERT của Google được huấn luyện dựa trên nhiệm vụ chính nào dưới đây?
💡 Lời giải chi tiết:
BERT che đi một số từ ngẫu nhiên trong câu và huấn luyện mô hình dự đoán chúng dựa trên cả ngữ cảnh bên trái và bên phải. Kết luận Lý giải Mô hình ngôn ngữ bị che khuất (Masked Language Modeling - MLM)
Câu 12:Điểm khác biệt cơ bản về kiến trúc giữa BERT và GPT là gì?
💡 Lời giải chi tiết:
BERT tập trung vào việc hiểu ngữ cảnh hai chiều (Encoder), trong khi GPT tập trung vào việc sinh văn bản tự hồi quy (Decoder). Kết luận Lý giải BERT là Encoder-only, còn GPT là Decoder-only
Câu 13:Độ đo BLEU (Bilingual Evaluation Understudy) thường được sử dụng để đánh giá bài toán nào?
💡 Lời giải chi tiết:
BLEU so sánh độ tương đồng giữa bản dịch của máy và bản dịch tham chiếu của con người dựa trên các n-gram. Kết luận Lý giải Dịch máy (Machine Translation)
Câu 14:Trong bài toán Nhận dạng thực thể có tên (NER), mục tiêu là xác định những thành phần nào?
💡 Lời giải chi tiết:
NER tập trung vào việc trích xuất và phân loại các thực thể cụ thể có ý nghĩa định danh trong văn bản. Kết luận Lý giải Tên riêng, tổ chức, địa điểm, thời gian và các đơn vị định lượng
Câu 15:Kỹ thuật 'Byte Pair Encoding' (BPE) giải quyết vấn đề gì trong Tokenization?
💡 Lời giải chi tiết:
BPE giúp mô hình có thể biểu diễn các từ lạ bằng cách kết hợp các mảnh từ (subword units) phổ biến đã học được. Kết luận Lý giải Xử lý các từ ngoài từ điển (Out-of-vocabulary) bằng cách chia thành các đơn vị con (subwords)
Câu 16:Độ đo 'Perplexity' trong mô hình ngôn ngữ dùng để làm gì?
💡 Lời giải chi tiết:
Chỉ số Perplexity càng thấp chứng tỏ mô hình ngôn ngữ dự đoán tập dữ liệu càng chính xác và tự tin. Kết luận Lý giải Đánh giá mức độ bất ngờ (hoặc độ tốt) của mô hình khi dự đoán một tập dữ liệu
Câu 17:Chiến lược 'Beam Search' trong quá trình giải mã (decoding) có ưu điểm gì so với 'Greedy Search'?
💡 Lời giải chi tiết:
Trong khi Greedy Search chỉ chọn từ tốt nhất tại chỗ, Beam Search giữ lại một số ứng viên hàng đầu để tìm kiếm tối ưu toàn cục. Kết luận Lý giải Khám phá nhiều nhánh khả thi để tìm ra chuỗi có xác suất tổng thể cao hơn
Câu 18:Trong ngữ cảnh của các mô hình ngôn ngữ lớn (LLM), 'Zero-shot learning' nghĩa là gì?
💡 Lời giải chi tiết:
Theo khả năng suy luận của LLM, Zero-shot cho phép mô hình hiểu yêu cầu chỉ qua mô tả nhiệm vụ mà không cần dữ liệu mẫu. Kết luận Lý giải Mô hình thực hiện một nhiệm vụ mà không cần bất kỳ ví dụ minh họa cụ thể nào trong prompt
Câu 19:Thành phần 'Positional Encoding' trong Transformer có vai trò gì?
💡 Lời giải chi tiết:
Do Transformer xử lý song song và không có tính tuần tự tự nhiên, Positional Encoding cần thiết để mô hình biết từ nào đứng trước, từ nào đứng sau. Kết luận Lý giải Cung cấp thông tin về thứ tự và vị trí của các từ trong câu
Câu 20:Kỹ thuật 'Fine-tuning' trong NLP thường được thực hiện như thế nào?
💡 Lời giải chi tiết:
Fine-tuning tận dụng kiến thức ngôn ngữ chung từ quá trình pre-training để thích nghi nhanh với các bài toán chuyên biệt. Kết luận Lý giải Điều chỉnh một mô hình đã được huấn luyện trước (pre-trained) trên một tập dữ liệu nhỏ cho nhiệm vụ cụ thể
Câu 21:Hàm 'Softmax' thường được đặt ở lớp cuối cùng của mô hình phân loại văn bản để làm gì?
💡 Lời giải chi tiết:
Softmax đảm bảo tổng các giá trị đầu ra bằng 1, giúp chúng ta diễn giải kết quả dưới dạng xác suất thuộc về mỗi lớp. Kết luận Lý giải Để chuyển đổi điểm số đầu ra thành phân phối xác suất giữa các lớp
Câu 22:Trong xử lý ngôn ngữ, mô hình n-gram với n=2 được gọi là gì?
💡 Lời giải chi tiết:
Theo quy ước đặt tên, n-gram với n bằng 1, 2, 3 tương ứng là Unigram, Bigram và Trigram. Kết luận Lý giải Bigram
Câu 23:Thành phần nào trong kiến trúc Transformer thực hiện việc gán trọng số ưu tiên cho các từ khác nhau trong câu?
💡 Lời giải chi tiết:
Self-Attention tính toán mức độ liên quan giữa mỗi cặp từ trong chuỗi để tập trung vào các thông tin quan trọng nhất. Kết luận Lý giải Self-Attention
Câu 24:Mô hình T5 (Text-to-Text Transfer Transformer) xử lý các nhiệm vụ NLP khác nhau theo cách tiếp cận nào?
💡 Lời giải chi tiết:
T5 thống nhất các bài toán như dịch, tóm tắt, phân loại bằng cách coi tất cả đều là quá trình nhập văn bản và xuất văn bản. Kết luận Lý giải Chuyển đổi mọi nhiệm vụ NLP thành định dạng văn bản sang văn bản (text-to-text)
Câu 25:Độ đo ROUGE (Recall-Oriented Understudy for Gisting Evaluation) chủ yếu dùng cho bài toán nào?
💡 Lời giải chi tiết:
ROUGE đo lường độ phủ của các n-gram trong văn bản tóm tắt tự động so với văn bản tóm tắt chuẩn. Kết luận Lý giải Tóm tắt văn bản (Summarization)