Skip to main content

ERNIE 2.0: A Continual Pre-training Framework for Language Understanding

ERNIE 2.0 là một khung đào tạo trước liên tục để hiểu ngôn ngữ, trong đó các nhiệm vụ trước khi đào tạo có thể được xây dựng và học hỏi dần dần thông qua học tập đa tác vụ. Trong khung này, các tác vụ tùy chỉnh khác nhau có thể được giới thiệu tăng dần bất cứ lúc nào. Ví dụ, các tác vụ bao gồm dự đoán thực thể được đặt tên, nhận dạng quan hệ diễn ngôn, dự đoán thứ tự câu được tận dụng để cho phép các mô hình học các biểu diễn ngôn ngữ.
Nhiệm vụ trước khi đào tạo
Chúng tôi xây dựng một số nhiệm vụ để nắm bắt các khía cạnh khác nhau của thông tin trong tập đoàn đào tạo:

Nhiệm vụ nhận biết từ: để xử lý thông tin từ vựng
Nhiệm vụ nhận biết cấu trúc: để nắm bắt thông tin cú pháp
Nhiệm vụ nhận biết ngữ nghĩa: phụ trách các tín hiệu ngữ nghĩa
Đồng thời, ERINE 2.0 cung cấp nhiệm vụ nhúng để mô hình hóa đặc tính của các nhiệm vụ khác nhau. Chúng tôi đại diện cho các nhiệm vụ khác nhau với một ID từ 0 đến N. Mỗi ID nhiệm vụ được gán cho một nhiệm vụ nhúng duy nhất.

Comments

Popular posts from this blog

5 FAQ về BERT mà bạn nên nghe

BERT là một cột mốc quan trọng trong lĩnh vực NLP. Đây là một mô hình ngôn ngữ rất mạnh giúp cải thiện đáng kể khả năng giải quyết các nhiệm vụ NLP.  Bài viết này giới thiệu lý thuyết và sử dụng BERT từ nhiều quan điểm thông qua lý thuyết và trường hợp.  Nếu bạn là một học viên NLP, bạn có thể tìm hiểu việc sử dụng BERT theo hướng dẫn trường hợp trong bài viết này. Nếu bạn đã chú ý đến thông tin về học tập sâu, bạn hẳn đã nghe nói về BERT, một chủ đề rất nóng trong năm qua. Vào cuối năm 2018, các nhà nghiên cứu tại ngôn ngữ trí tuệ nhân tạo của Google đã mở ra một công nghệ xử lý ngôn ngữ tự nhiên mới (NLP), được gọi là BERT (Đại diện bộ mã hóa hai chiều của Transformers).  Đây là một bước đột phá lớn đã phá hủy toàn bộ cộng đồng học tập sâu với hiệu suất đáng kinh ngạc của nó.  Trong bài đăng trên blog này, chúng tôi sẽ tìm hiểu và tìm hiểu về BERT bằng cách trả lời 5 câu hỏi sau: Tại sao chúng ta cần BERT? Ý tưởng cốt lõi đằng sau BERT là gì? BERT hoạt...