Bộ 11 - Trắc nghiệm Xử lý ngôn ngữ tự nhiên online có đáp án

Thời gian còn lại: --:--

Câu 1: Trong xử lý ngôn ngữ tự nhiên, kỹ thuật 'Lemmatization' khác với 'Stemming' ở điểm cốt lõi nào?

Câu 2: Mô hình Word2Vec với kiến trúc 'Skip-gram' được thiết kế để thực hiện nhiệm vụ gì?

Câu 3: Chỉ số TF-IDF (Term Frequency-Inverse Document Frequency) được sử dụng chủ yếu để làm gì trong NLP?

Câu 4: Hạn chế lớn nhất của mô hình Mạng nơ-ron tái phát (RNN) truyền thống khi xử lý các chuỗi văn bản dài là gì?

Câu 5: Trong kiến trúc LSTM (Long Short-Term Memory), cổng nào chịu trách nhiệm quyết định thông tin nào từ trạng thái trước đó sẽ bị loại bỏ?

Câu 6: Cơ chế 'Self-Attention' trong mô hình Transformer có vai trò chính là gì?

Câu 7: Mô hình BERT (Bidirectional Encoder Representations from Transformers) được huấn luyện dựa trên kiến trúc nào của Transformer?

Câu 8: Tại sao 'Positional Encoding' lại cần thiết trong mô hình Transformer?

Câu 9: Độ đo BLEU (Bilingual Evaluation Understudy) thường được dùng để đánh giá chất lượng của tác vụ nào?

Câu 10: Trong tác vụ Nhận dạng thực thể có tên (NER), mục tiêu chính là gì?

Câu 11: Mô hình GPT (Generative Pre-trained Transformer) khác BERT ở điểm cơ bản nào về kiến trúc?

Câu 12: Phương pháp 'Byte Pair Encoding' (BPE) được sử dụng trong NLP nhằm giải quyết vấn đề gì?

Câu 13: Chỉ số 'Perplexity' trong mô hình ngôn ngữ (Language Model) thể hiện điều gì?

Câu 14: Lợi ích chính của việc sử dụng 'FastText' so với 'Word2Vec' truyền thống là gì?

Câu 15: Kỹ thuật 'Stop words removal' thường không được khuyến khích trong tác vụ nào sau đây?

Câu 16: Hàm kích hoạt 'Softmax' ở lớp cuối cùng của mô hình phân loại văn bản đa lớp có tác dụng gì?

Câu 17: Trong mô hình Transformer, việc sử dụng 'Multi-head Attention' thay vì một đầu Attention duy nhất nhằm mục đích gì?

Câu 18: Khái niệm 'Transfer Learning' trong NLP thường được thực hiện thông qua quy trình nào?

Câu 19: Sự khác biệt chính giữa 'Dependency Parsing' và 'Constituency Parsing' là gì?

Câu 20: Mô hình T5 (Text-to-Text Transfer Transformer) đề xuất phương pháp tiếp cận chung cho các tác vụ NLP như thế nào?

Câu 21: Kỹ thuật 'Beam Search' thường được sử dụng trong quá trình giải mã của các mô hình sinh ngôn ngữ nhằm mục đích gì?

Câu 22: Độ đo ROUGE (Recall-Oriented Understudy for Gisting Evaluation) thường được ưu tiên sử dụng cho bài toán nào?

Câu 23: Trong học sâu cho NLP, lớp 'Embedding' thực hiện chức năng gì?

Câu 24: Mô hình ngôn ngữ 'Masked Language Model' (như trong BERT) được huấn luyện bằng cách nào?

Câu 25: Sự khác biệt giữa 'GloVe' và 'Word2Vec' là gì?