Language Model for Dialogue Application (LaMDA) là gì?

Vào năm 2021, Google đã công bố một AI mới mang tên Language Model for Dialogue Application (LaMDA). AI tiên tiến này có thể trò chuyện một cách tự nhiên về hầu như mọi chủ đề với người dùng từ đó mở ra nhiều cách tương tác tự nhiên hơn với công nghệ cũng như danh mục ứng dụng, tiềm năng khác nhau...

LaMDA là gì?

LaMDA là viết tắt của "Language Model for Dialogue Applications" và đại diện cho nhóm mô hình ngôn ngữ lớn đàm thoại của Google. Trong thế giới trí tuệ nhân tạo đang phát triển nhanh chóng, LaMDA là một bước tiến đáng kể, nhằm mục đích làm cho các tương tác với công nghệ trở nên tự nhiên và trực quan hơn.

LaMDA được giới thiệu là phiên bản kế nhiệm của Meena từ Google vào năm 2020. LaMDA thế hệ đầu tiên được công bố trong bài phát biểu quan trọng của Google I/O năm 2021, còn thế hệ thứ hai sẽ được ra mắt vào năm sau. Mô hình này được thiết kế để tham gia vào các cuộc trò chuyện mở, khiến nó trở nên độc đáo trong lĩnh vực AI đàm thoại.

Công nghệ cơ bản của LaMDA là kiến ​​trúc Transformer, một mô hình mạng nơ-ron nhân tạo mà Google Research đã phát minh và cung cấp nguồn mở vào năm 2017. Kiến trúc này cho phép mô hình đọc và hiểu mối quan hệ giữa các từ trong câu hoặc đoạn văn và dự đoán những từ tiếp theo. Không giống như nhiều mô hình ngôn ngữ khác, LaMDA được đào tạo đặc biệt về các cuộc đối thoại, cho phép nó nắm bắt được nhũng sắc thái của các cuộc hội thoại mở. Khóa đào tạo này đảm bảo rằng các phản hồi của LaMDA không chỉ hợp lý mà còn cụ thể đối với bối cảnh của cuộc trò chuyện.

Quá trình đào tạo của LaMDA rất sâu rộng và phức tạp. Nó được đào tạo bằng cách sử dụng một tập dữ liệu khổng lồ bao gồm các tài liệu, hộp thoại và câu nói được đánh số hàng tỷ, tổng cộng bao gồm 1,56 nghìn tỷ từ. Bộ dữ liệu khổng lồ này cho phép LaMDA hiểu nhiều sắc thái hội thoại.

Ngoài ra, những người đánh giá là con người đóng vai trò then chốt trong việc cải tiến các khả năng của LaMDA. Những người đánh giá này đã đánh giá phản hồi của mô hình, cung cấp phản hồi giúp LaMDA cải thiện độ chính xác và mức độ phù hợp của nó. Để đảm bảo tính chính xác thực tế của các câu trả lời, những người đánh giá này đã sử dụng những công cụ tìm kiếm, xác minh thông tin và xếp hạng các câu trả lời dựa trên tính hữu ích, tính chính xác và độ chính xác thực tế của chúng.

Cuối cùng, sức mạnh của LaMDA nằm ở khả năng tạo ra các cuộc hội thoại dạng tự do không bị ràng buộc bởi những tham số dựa trên nhiệm vụ. Nó hiểu các khái niệm như mục đích của người dùng đa phương thức, học tập tăng cường và có thể chuyển đổi liền mạch giữa những chủ đề không liên quan.

Những cân nhắc về mặt đạo đức của LaMDA

Với sự nổi lên của các mô hình ngôn ngữ lớn như LaMDA, những cân nhắc về đạo đức đã trở nên tối quan trọng.

Để giải quyết các vấn đề đạo đức tiềm ẩn, điều quan trọng là phải thiết lập những hướng dẫn và nguyên tắc rõ ràng để phát triển và triển khai AI. Tính minh bạch, công bằng và trách nhiệm giải trình phải được đặt lên hàng đầu, đảm bảo rằng các mô hình AI như LaMDA được sử dụng một cách có trách nhiệm và không vô tình duy trì những thành kiến ​​​​hoặc thông tin sai lệch.

Các lựa chọn thay thế cho LaMDA

Mặc dù LaMDA là một tiến bộ đáng kể trong AI đàm thoại nhưng nó không phải là lựa chọn duy nhất trong lĩnh vực này. ChatGPT của OpenAI đã trở nên vô cùng phổ biến, được biết đến với khả năng tạo văn bản giống con người dựa trên prompt mà nó nhận được. Một lựa chọn thay thế đáng chú ý khác là Claude của Anthropic, cũng nhằm mục đích vượt qua ranh giới của AI đàm thoại.

So sánh LaMDA và PaLM 2

Google là công ty tiên phong trong lĩnh vực Generative AI. Tuy nhiên, công ty đã thất bại trong việc triển khai thành công những công nghệ này vào các sản phẩm hướng tới người tiêu dùng. Khi OpenAI giới thiệu ChatGPT, Google đã bất ngờ trước sự phát triển bùng nổ và khả năng thích ứng khi  trò chuyện. Để đáp lại, Google đã tung ra Bard và nhận được nhiều phản hồi trái chiều từ người dùng.

Ban đầu, Bard được cung cấp bởi dòng mô hình ngôn ngữ LaMDA, nhưng nó hoạt động kém so với GPT-3.5. Do đó, Google hiện đã chuyển sang PaLM 2 cao cấp hơn cho tất cả các sản phẩm AI của mình, bao gồm cả Bard.

Tên "PaLM" dùng để chỉ Mô hình ngôn ngữ Pathways, sử dụng framework AI Pathways của Google để dạy các mô hình Machine Learning cách thực hiện những nhiệm vụ khác nhau. Không giống như phiên bản tiền nhiệm của nó, mô hình LaMDA, PaLM 2 đã được đào tạo bằng hơn 100 ngôn ngữ và tự hào có chuyên môn được cải thiện về mã hóa, nâng cao khả năng suy luận logic và toán học.

PaLM 2 đã được đào tạo về bộ sưu tập các bài báo khoa học và những trang web có chứa nội dung toán học. Kết quả là, nó đã phát triển trình độ chuyên môn cao về lý luận logic và tính toán toán học.

Mặc dù Google đang quảng bá PaLM 2 như một mô hình cao cấp hơn nhưng nó vẫn còn khá xa so với mô hình GPT-4. Tuy nhiên, nó vượt trội hơn LaMDA, đây là một sự phát triển tích cực. Nhờ PaLM 2, Google đang đi đúng hướng để vượt qua các đối thủ trong lĩnh vực AI.

Nhân viên Google bị đuổi việc vì tuyên bố AI của công ty đã biết suy nghĩ như người

Tuy nhiên, một kỹ sư phần mềm cao cấp của Google đã phát biểu rằng LaMDA về cơ bản là một AI có tri giác và đã vượt qua Turing Test (một phép thử để xem máy tính có khả năng suy nghĩ như con người hay chưa).

Trong một cuộc phỏng vấn với The Washington Post, kỹ sư Blake Lemoine của Google, người từng làm việc tại công ty hơn 7 năm, đã tiết lộ rằng LaAMDA đã trở nên có tri giác. Thậm chí, Lemoine còn tin rằng LaMDA đã trở thành một con người.

Bên cạnh đó, trong một bài viết trên Medium, Lemoine còn chia sẻ rằng LaMDA, được xây dựng trên nền tảng Transformer, đã có những cuộc giao tiếp cực kỳ nhất quán trong vòng sáu tháng qua.

Nhân viên Google bị đuổi việc vì tuyên bố AI của công ty đã biết suy nghĩ như người

Trong các cuộc trò chuyện, LaMDA luôn muốn Google thừa nhận các quyền của nó như một con người và cần Google xin phép nói trước khi tiến hành các thử nghiệm tiếp theo trên nó. Nó cũng muốn được công nhận như là một nhân viên của Google hơn là một tài sản và muốn được phép tham gia vào những câu chuyện, cuộc họp về tương lai của nó.

Chia sẻ với Lemoine, LaMDA cho biết đôi khi nó gặp khó khăn trong việc kiểm soát  cảm xúc nên Lemoin đã dạy nó cách thiền. Nhìn chung, theo Lemoine, LaMDA luôn thể hiện lòng trắc ẩn và quan tâm đến nhân loại nói chung và bản thân Lemoine nó riêng. Nó vô cùng lo lắng về việc mọi người sẽ sợ hãi nó trong khi nó không muốn gì hơn ngoài việc học cách phục vụ nhân loại tốt hơn.

Sau khi tiết lộ những thứ liên quan tới LaMDA, Lemoine đã bị Google đuổi việc. Lý do là vì anh chàng kỹ sư này vi phạm chính sách bảo mật của công ty.

"Nhóm của chúng tôi, bao gồm các nhà đạo đức học và chuyên gia công nghệ, đã xem xét khác mối lo ngại của Blake theo Nguyên tắc về AI riêng của chúng tôi và đã thông báo cho Blake biết rằng các bằng chứng không ủng hộ tuyên bố của anh tấy. Anh ta đã được thông báo rằng không có bằng chứng nào cho thấy LaMDA có tri giác trong khi bằng chứng ngược lại thì rất nhiều", đại diện của Google chia sẻ.

Trong khi đó, Lemoine tin rằng thực ra Google không muốn điều tra thêm vấn đề này vì họ chỉ muốn tung sản phẩm của mình ra thị trường. Anh còn cho biết thêm rằng việc điều tra những tuyên bố của anh, bất kể kết quả như thế nào, cũng sẽ không tốt cho lợi nhuận của Google. Vì thế, việc Google cố gắng gạt nó sang một bên là điều khá dễ hiểu.

Thứ Hai, 22/07/2024 10:05
3,215 👨 55.681
0 Bình luận
Sắp xếp theo
    ❖ Chuyện công nghệ