Có thể sẽ có một thuật toán để mô phỏng các khung nhìn lập thể, nhưng nó không thể giống nhau.
Lý do khá đơn giản. Trong một video 2D không chỉ thiếu thông tin chiều sâu (mà không đủ để nhận được một video lập thể), nhưng nó thiếu các bề mặt ẩn mà có thể nhìn thấy từ một quan điểm khác.
Mọi người đều có thể nghĩ rằng thông tin chuyên sâu có thể được ngoại suy từ thông tin có sẵn và điều này là đúng. Tuy nhiên, thông tin còn thiếu không thể chính xác để có hiệu ứng lập thể tốt.
Ngoài ra, tôi đã nghe nói về một hệ thống mà coudl trích xuất các mô hình 3D chính xác từ 8 (tám!) Máy ảnh chỉ trên cùng một mục tiêu. Nó là rất chính xác để thi đua cũng quần áo chuyển động một cách chính xác. Tuy nhiên, điều này được thực hiện xử lý 8 (tám!) Video 2D. Làm cách nào để có thể đạt được kết quả tương tự chỉ với một video 2D?
Kết quả đạt được của kết quả mong muốn phụ thuộc chủ yếu bởi tính khả dụng của thông tin và trong trường hợp này (IMHO) không có thông tin đủ. Mặc dù vậy, có thể thử giả lập hiệu ứng lập thể từ một video 2D, nhưng về cơ bản nó cần một công việc khó khăn, xử lý lâu dài và hậu quả là kết quả chất lượng thấp tôn trọng một video lập thể ban đầu.
Tôi muốn nhớ rằng chế độ xem 3D được tạo ra bởi bộ não của chúng tôi. Đôi mắt chỉ có thể chụp hình ảnh 2D, và bộ não của chúng ta, xử lý hai hình ảnh có thể tạo ra một cái nhìn sâu sắc về các vật thể nhìn thấy.
có thể đang sử dụng các tiêu chuẩn để tạo ra thứ gì đó như trải nghiệm 3D? – Rella
có vẻ như ý tưởng về các phương pháp tự động tô màu cho phim đen trắng của ngày cũ. đó là một ý kiến hay. – darlinton