Cảm biến LiDAR và ToF: Đâu là sự khác biệt?

Gần đây chúng ta đều bắt gặp cụm từ cảm biến LiDAR rất nhiều trong những bài viết về camera trên các thiết bị mới của Apple. Cụm từ này được nói nhiều đến mức chúng ta quên mất rằng Thực tế tăng cường (Augmented Reality) điện thoại có thể hoạt động theo bất kỳ cách thức nào, đặc biệt với những công cụ ToF đưa điện thoại Samsung lên tầm cao mới.

Vậy sự khác biệt của LiDAR và ToF rốt cuộc khác nhau ở đâu? Hãy cùng Quantrimang tìm hiểu nhé.

ToF là gì?

ToF là viết tắt của Time of Flight. Thật ra, ToF liên quan đến tốc độ ánh sáng (hoặc kể cả âm thanh) để quyết định khoảng cách. Nó đo khoảng thời gian ánh sáng ra khỏi thiết bị, chạm tới vật thể rồi trở lại, tất cả được chia thành hai giai đoạn cho biết khoảng cách từ thiết bị cho tới vật thể hoặc mặt phẳng.

Các thiết bị Android dùng cảm biến ToF
Các thiết bị Android dùng cảm biến ToF

Vì thế tất cả LiDAR là một loại của Time of Flight, nhưng không phải tất cả ToF đều là LiDAR. Nói một cách đơn giản, ToF có nghĩa là đo khoảng cách quang học, không liên quan đến LiDAR.

LiDAR là gì?

LiDAR là viết tắt của Light Detection and Ranging. Công nghệ này dùng một tia laser, hoặc một chùm tia laser cũng như nguồn ánh sáng tương tự như trên.

Cảm biến LiDAR trên iPhone
Cảm biến LiDAR trên iPhone

Một cảm biến LiDAR đơn có thể dùng để đo chiều rộng của một căn phòng, nhưng nhiều cảm biến LiDAR có thể được sử dụng để tạo ra “điểm đám mây”. Những điểm này được dùng để tạo ra mẫu 3D của vật thể hoặc bản đồ địa hình toàn bộ khu vực.

Mặc dù LiDAR có thể mới trên các thiết bị di động nhưng công nghệ này thực tế đã có mặt được một thời gian. Khi không cài đặt trên điện thoại, LiDAR được dùng để làm mọi thứ từ việc lập bản đồ môi trường dưới nước cho đến các địa điểm khảo cổ học.

Sự khác nhau giữa LiDAR và ToF

Sự khác biệt về chức năng giữa LiDAR và các dạng khác của ToF đó là LiDAR sử dụng tia laser xung để xây dựng “điểm đám mây”, các điểm này sau đó được sử dụng để xây dựng bản đồ hoặc hình ảnh 3D. Các ứng dụng ToF tạo ra "bản đồ độ sâu" dựa trên phát hiện ánh sáng, thường thông qua một máy ảnh RGB tiêu chuẩn.

Ưu điểm của ToF so với LiDAR là ToF yêu cầu ít thiết bị chuyên dụng hơn để có thể sử dụng với các thiết bị nhỏ và ít tốn kém. Lợi ích của LiDAR đến từ việc máy tính có thể dễ dàng đọc điểm đám mây so với bản đồ độ sâu.

Depth API mà Google tạo ra cho Android hoạt động tốt nhất trên các thiết bị hỗ trợ ToF, bằng cách tạo bản đồ độ sâu và nhận dạng "điểm đặc trưng". Các điểm đặc trưng này thường là rào cản giữa các cường độ ánh sáng khác nhau, sau đó được sử dụng để xác định các mặt phẳng khác nhau trong môi trường. Điều này thực chất tạo ra một đám mây điểm có độ phân giải thấp hơn.

Cách ToF và LiDAR hoạt động với AR trên di động

Bản đồ độ sâu và đám mây điểm rất tuyệt và đối với một số người dùng, như vậy cũng đủ. Tuy nhiên, đối với hầu hết các ứng dụng AR, dữ liệu này phải được ngữ cảnh hóa. Cả ToF và LiDAR đều thực hiện điều này bằng cách hoạt động cùng với các cảm biến khác trên thiết bị di động. Cụ thể, các nền tảng này cần hiểu hướng và chuyển động của điện thoại của bạn.

LiDAR có tốt hơn ToF?

Nói một cách chính xác, LiDAR nhanh hơn và chính xác hơn ToF. Tuy nhiên, điều này trở nên quan trọng hơn với các ứng dụng công nghệ mới.

Ví dụ, ToF và Depth API của Google gặp khó khăn trong việc hiểu các mặt phẳng lớn, kết cấu thấp như bức tường trắng. Điều này có thể gây khó khăn cho các ứng dụng sử dụng phương pháp này trong việc đặt chính xác các đối tượng kỹ thuật số trên một số bề mặt trong thế giới vật lý. Các ứng dụng sử dụng LiDAR ít gặp sự cố này hơn.

Tuy nhiên, các ứng dụng liên quan đến các môi trường đa dạng về kết cấu hoặc lớn hơn không có khả năng gặp vấn đề này. Hơn nữa, hầu hết các ứng dụng AR dành cho người dùng dựa trên thiết bị di động có sử dụng bộ lọc AR trên khuôn mặt hoặc cơ thể của người dùng — một ứng dụng không có khả năng gặp sự cố vì bề mặt lớn không có kết cấu.

Tại sao Apple và Google sử dụng cảm biến độ sâu khác nhau?

Khi phát hành các thiết bị tương thích với LiDAR, Apple nói rằng họ đã kết hợp các cảm biến với phần cứng nhằm "mở ra nhiều quy trình làm việc chuyên nghiệp hơn, hỗ trợ các ứng dụng ảnh và video chuyên nghiệp." iPad Pro tương thích với LiDAR là "thiết bị tốt nhất thế giới cho thực tế tăng cường" và sản phẩm chào sân có chứa các ứng dụng đo lường của Apple.

Google giải thích nhiều về lý do tại sao Depth API của họ và dòng thiết bị hỗ trợ mới không sử dụng LiDAR. Hoạt động cùng LiDAR giữ cho các thiết bị Android nhẹ hơn và giá cả phải chăng hơn, ngoài ra còn có một lợi thế lớn về khả năng truy cập.

Vì điện thoại Android do nhiều công ty sản xuất nên việc sử dụng LiDAR sẽ ưu tiên các kiểu máy tương thích với LiDAR hơn so với các kiểu máy khác. Hơn nữa, vì nó chỉ yêu cầu một máy ảnh tiêu chuẩn, Depth API tương thích ngược với nhiều thiết bị hơn.

Thứ Ba, 08/12/2020 14:30
51 👨 4.137
0 Bình luận
Sắp xếp theo