Numpy có thể được "liên kết/biên dịch" với các triển khai BLAS khác nhau (MKL, ACML, ATLAS, GotoBlas, v.v.). Đó không phải là luôn luôn đơn giản để cấu hình nhưng nó là có thể.Numpy, BLAS và CUBLAS
Bạn cũng có thể "liên kết/biên dịch" gọn gàng với việc triển khai CUBLAS của NVIDIA không?
Tôi không thể tìm thấy bất kỳ tài nguyên nào trên web và trước khi tôi dành quá nhiều thời gian để thử nó, tôi muốn đảm bảo rằng nó có thể thực hiện được.
Cảm ơn thông tin. Tôi biết về các thư viện Python khác nhau cho phép truy cập vào CUDA. Tuy nhiên, mặc dù tôi có thể cấu hình Numpy để sử dụng Cublas, tôi sẽ không phải thay đổi bất kỳ thứ gì trong mã hiện có (hiện tại nó sử dụng '' numpy.dot() '' và các hàm Linealg khác với MKL hoặc GotoBlas2) và tôi có thể làm so sánh hiệu suất. Chỉ cần ra khỏi tò mò: Bạn có biết cơ hội những lý do kỹ thuật là lý do tại sao nó không thể liên kết numpy chống lại CUBLAS? –
Đó là vì API không giống nhau, và có một lớp toàn bộ quản lý bộ nhớ mà ứng dụng tiêu chuẩn không biết gì về. – talonmies
Điều này có thể làm thay đổi tình huống: http://devblogs.nvidia.com/parallelforall/drop-in-acceleration-gnu-octave/ mặc dù điều này áp dụng cho quãng tám nó cũng sẽ hoạt động cho Numpy –