Kỹ sư AI Facebook nói về deep learning, ngôn ngữ lập trình mới và phần cứng phục vụ cho trí tuệ nhân tạo

Deep learning (học sâu) trong tương lai có thể sẽ yêu cầu một ngôn ngữ lập trình mới, linh hoạt và dễ làm việc hơn so với Python, đó chính là nhận xét của ông Yann LeCun, giám đốc nghiên cứu AI của Facebook, một trong những chuyên gia hàng đầu về lĩnh vực trí tuệ nhân tạo ở thời điểm hiện tại. Tại sao vị chuyên gia này lại dự đoán như vậy?

“Hiện vẫn chưa thể khẳng định rõ rằng một ngôn ngữ lập trình mới có nhất thiết phải được tạo ra hay không, tuy nhiên, điều này là cần thiết để thay đổi suy nghĩ của một bộ phận không nhỏ các nhà nghiên cứu và kỹ sư công nghệ thông tin - những người vốn rất bảo thủ trong các vấn đề liên quan đến trí tuệ nhân tạo. Trên thực tế, đã có một số dự án tại Google, Facebook và nhiều công ty công nghệ khác trong việc thiết kế một ngôn ngữ lập trình mới, được biên dịch theo cách có thể đem lại hiệu quả cao hơn cho việc phát triển deep learning, thế nhưng tôi không dám chắc rằng cộng đồng có làm theo hay không, bởi vì mọi người chỉ muốn sử dụng Python”, ông Yann LeCun chia sẻ.

Yann LeCun

Phát triển một ngôn ngữ lập trình mới liệu có phải là cách tiếp cận hợp lý?

Theo báo cáo Octoverse gần đây của GitHub, Python hiện đang là ngôn ngữ được sử dụng phổ biến nhất bởi các nhà phát triển đang làm việc cho các dự án học máy (machine learning), và ngôn ngữ này đồng thời cũng góp phần hình thành lên nền tảng framework PyTorch của Facebook, và TensorFlow của Google

Ông Yann LeCun đã trình bày một bài báo tại International Solid-State Circuits Conference (ISSCC) diễn ra hôm 19/2 tại San Francisco, tìm hiểu về các xu hướng mới nhất trong phát triển học máy. Trong đó, phần đầu tiên của bài báo kể về những bài học mà Yann LeCun đã tiếp thu được từ Bell Labs, bao gồm cả quan sát của ông về việc các nhà nghiên cứu AI và cả các nhà khoa học máy tính thường có xu hướng gắn liền với công cụ phần cứng và phần mềm lại với nhau.

Các vấn đề về phần cứng

Trí tuệ nhân tạo đã hơn 50 năm tuổi, trải qua nửa thế kỷ hình thành và phát triển, thế nhưng sự gia tăng hiện tại trong mức độ quan trọng và ứng dụng thực tế của công nghệ này trong thời gian gần đây lại có xu hướng được liên kết chặt chẽ với sự tăng trưởng về mặt sức mạnh tính toán, cung cấp bởi chip máy tính và các thành phần phần cứng liên quan.

Yann LeCun đã từng làm việc trong thời gian dài tại Bell Labs, từ những năm 1980, cũng như chịu trách nhiệm trong mảng phát triển AI của ConvNet (CNN), và ông đi đến kết luận rằng phần cứng tốt hơn sẽ góp phần tạo ra các thuật toán tốt hơn, hiệu suất tốt hơn.

Yann LeCun đã từng làm việc nhiều tại Bell Labs vào những năm 1980

Đầu những năm 2000, sau khi rời Bell Labs và gia nhập Đại học New York, Yann LeCun đã làm việc với nhiều ngôi sao sáng khác trong lĩnh vực AI, như Yoshua Bengio và Geoffrey Hinton, tiến hành nghiên cứu để hồi sinh mối quan tâm về mạng lưới thần kinh (neural networks) và thúc đẩy sự phổ biến của deep learning.

Trong những năm gần đây, những tiến bộ về phần cứng - đơn cử như Field-Programmable Gate Arrays - FPGA (một mạch tích hợp đặc biệt hoặc một con chip có thể lập trình trong phạm vi của nó sau khi được chế tạo ra), các con chip xử lý Tensor (TPU) từ Google, và chip xử lý đồ họa (GPU) - đã đóng vai trò lớn trong sự tăng trưởng của ngành công nghiệp AI.

“Những loại phần cứng này có ảnh hưởng lớn đến các công trình nghiên cứu mà mọi người đang thực hiện, và do đó, hướng đi của AI trong thập kỷ tới cũng sẽ bị ảnh hưởng rất nhiều bởi tình hình phát triển của phần cứng. Tất nhiên các nhà nghiên cứu khoa học máy tính không muốn bị ràng buộc bởi giới hạn của phần cứng, nhưng thực tế đang là như vậy”.

Ngoài ra, ông Yann LeCun cũng nhấn mạnh rằng một số nhà sản xuất phần cứng có liên quan đến AI nên xem xét và đưa ra các khuyến nghị về loại kiến trúc cần thiết trong tương lai gần, có thể là vài năm tới, trước quy mô ngày càng gia tăng của các hệ thống deep learning. Bên cạnh đó là sự cần thiết của việc phần cứng phải được thiết kế dành riêng cho deep learning, có thể xử lý theo quy mô lớn, thay vì cần phải xử lý nhiều mẫu đào tạo (training samples) để chạy một mạng lưới thần kinh vốn đang là tiêu chuẩn hiện nay.

“Ví dụ, nếu bạn chỉ chạy một hình ảnh duy nhất, bạn sẽ không thể khai thác tất cả sức mạnh tính toán có sẵn trong GPU. Về cơ bản, bạn sẽ lãng phí tài nguyên, vì vậy, các nhà phát triển cũng nên suy nghĩ về một số cách đào tạo mạng lưới thần kinh hiệu quả hơn”.

deep learning

Trong bài báo, ông Yann LeCun cũng nhắc lại niềm tin của mình rằng việc tự học có giám sát sẽ đóng vai trò chính trong việc thúc đẩy sự phát triển của AI hiện đại. Ông cho rằng các hệ thống học tập sâu trong tương lai phần lớn sẽ được đào tạo với việc tự học có giám sát, và phần cứng hiện đại với hiệu năng cao hơn sẽ là yếu tố cần thiết để hỗ trợ việc tự học có giám sát như vậy.

Tháng trước, ông Yann LeCun cũng đã tổ chức một buổi thảo luận về tầm quan trọng của việc học tự giám sát như một phần của câu chuyện về dự đoán cho xu hướng của AI vào trong năm 2019. Phần cứng có thể xử lý việc học tự giám sát sẽ rất quan trọng đối với Facebook, cũng như lái xe tự động, robot và nhiều hình thức công nghệ khác.

Thứ Tư, 20/02/2019 22:39
4,76 👨 770