Bên trong vi xử lý máy tính, dữ liệu được lưu tạm thời trong một bộ nhớ đệm gọi là DRAM cache, cho phép CPU gọi ra nhanh hơn. Dữ liệu trong bộ đệm được tổ chức thành các khối gọi là macroblock, nhờ đó CPU biết được phải tìm loại dữ liệu nào ở đâu khi cần. Tuy nhiên, không phải lúc nào CPU cũng cần đến tất cả dữ liệu trong một macroblock, do đó việc tìm và gọi các dữ liệu không cần đến trong một macroblock làm tăng độ trễ và tốn thêm điện năng.
Để khiến quy trình này hiệu quả hơn, các nhà nghiên cứu đã phát triển một kỹ thuật trong đó bộ đệm sẽ “học” về hoạt động tìm/gọi dữ liệu mỗi khi CPU cần ở mỗi macroblock qua thời gian. Điều này cho phép bộ đệm thực hiện 2 thứ: Đầu tiên là bộ đệm có thể nén macroblock, chỉ gọi dữ liệu liên quan, từ đó bộ đệm có thể gởi dữ liệu đến vi xử lý hiệu quả hơn. Thứ 2, do macroblock được nén nên không gian bộ đệm sẽ được giải phóng và có thể được dùng để chứa dữ liệu khác mà vi xử lý có thể cần đến.
Các nhà nghiên cứu đã thử nghiệm kỹ thuật này, họ gọi là Dense Footprint Cache (DFC) trong một hệ thống mô phỏng vi xử lý và bộ nhớ. Sau khi cho chạy 3 tỉ chỉ thị đối với mỗi ứng dụng được thử nghiệm qua hệ thống, họ phát hiện ra rằng kỹ thuật Dense Footprint Cache có thể tăng tốc độ thực thi ứng dụng lên 9,5% lần so với các phương pháp quản lý bộ đệm DRAM mới nhất hiện có trên thị trường. Ngoài ra, Dense Footprint Cache cũng sử dụng ít năng lượng hơn 4,3%.
Ngoài ra, các nhà nghiên cứu cũng nhận thấy kỹ thuật Dense Footprint Cache còn có thể cải thiện tỉ lệ lệch bộ đệm cuối (Last-level cache miss ratio) – tình trạng CPU không tìm thấy dữ liệu cần thiết trong bộ nhớ cache mà phải lấy trực tiếp từ RAM khiến CPU hoạt động kém hiệu quả. Họ cho rằng Dense Footprint Cache có thể giảm tỉ lệ này đến 43%.
Nghiên cứu trên đã được Samsung cùng NCSU công bố tại hội nghị chuyên đề về các hệ thống bộ nhớ quốc tế đang được tổ chức tại Washington DC. Nếu quan tâm, bạn có thể đọc thêm tại đây (pdf) .
Theo: NCSU