TÌM HIỂU VỀ GIAO DIỆN BỘ NHỚ HBM: DRAM CHỒNG LÊN NHAU, NHANH HƠN, TIẾT KIỆM ĐIỆN HƠN
High Bandwidth Memory (HBM)
là một loại giao tiếp RAM tốc độ cao, trong đó các đế chip DRAM sẽ được
chồng lên nhau theo chiều dọc và có một đường kết nối từ trên xuống
dưới để truyền dẫn tín hiệu. HBM được phát triển bởi AMD và Hynix,
sau đó họ đề xuất chuẩn này lên Hiệp hội công nghệ thể rắn (JEDEC) để
tiếp tục biến thành chuẩn chung. So với giao tiếp RAM truyền thống là
DDR4 (dùng cho bộ nhớ chính của thiết bị điện tử) hay GDDR5 (dùng cho
chip đồ họa), HBM hứa hẹn mang lại hiệu năng cao hơn trong khi mức độ
tiêu thụ điện thì giảm đi. Trong bài này mời các bạn tìm hiểu thêm nhiều
thông tin thú vị khác về HBM nhé.
1. Vì sao HBM ra đời?
Theo tài liệu của SK Hynix hồi năm 2014, hiện nay càng lúc các bộ xử lý càng trở nên mạnh mẽ hơn, dù cho đó là CPU, GPU
hay là chip xử lý tín hiệu mạng. Trong tương lai, xu hướng đó sẽ không
dừng lại khi mà càng ngày càng có nhiều ứng dụng nặng về đồ họa ra đời,
kết nối Ethernet thì sẽ có lúc đạt đến 40Gbps hay thậm chí là 100Gbps
chứ chắc chắn không chỉ dừng ở con số 10Gbps hiện tại.
Và để có thể đảm đương được ngần ấy lượng dữ liệu trong một thời gian
ngắn, bộ xử lý sẽ cần đến một bộ nhớ đủ nhanh để có thể đưa dữ liệu đầu
vào cho CPU/GPU kịp lúc cũng như nhận lại dữ liệu đã được xử lý xong.
Nếu bộ nhớ không nhanh thì sẽ xảy ra hiện tượng nghẽn cổ chai, đó là khi
chip đã xử lý xong loạt dữ liệu đầu tiên rồi nhưng không thể làm tiếp
mà phải đứng lại chờ dữ liệu được chuyển đến, điều đó làm giảm đi hiệu
năng của hệ thống.
Từ trước đến nay người ta đã làm nhiều cách để giải quyết vấn đề nghẽn
cổ chai nói trên, từ việc đưa bộ nhớ tốc độ cao register vào trực tiếp
trên đế bán dẫn của CPU cho đến các bộ nhớ đệm cache L1, L2, L3. RAM mà
chúng ta đang dùng hiện nay cũng là một cách giảm thời gian chờ dữ liệu
được lấy từ bộ nhớ vĩnh viễn (chính là HDD/SSD).
Vấn đề là tốc độ của RAM hiện nay không còn đủ đáp ứng cho các bộ xử lý
của tương lai, trong khi cải tiến hay triển khai register, cache mới thì
sẽ đắt đỏ hơn, tốn thời gian hơn. Thế nên người ta nghĩ đến việc phải
làm mới giao tiếp giữa RAM và hệ thống.
Nhưng HBM cũng chưa ra đời ngay lúc này đâu. Trước khi thật sự đưa ra
khái niệm về HBM, người ta đã nghĩ đến TSV (Trough silicon via). Đây là
công nghệ dùng các kết nối theo chiều dọc để liên kết các đế chip nhớ
lại với nhau, và chúng cũng liên kết luôn chip nhớ với bo mạch bên dưới
rồi từ đó dẫn sang CPU/GPU thay vì dùng dây hàn như giải pháp truyền
thống. TSV chính là nền tảng cơ bản để AMD và SK Hynix làm ra HBM.
Bên trái là cấu trúc sử dụng dây vàng để liên kết các chip nhớ DRAM đang
xài trong chuẩn DDR và GDDR, bên phải là đường liên kết TSV (màu vàng)
để nối các chip DRAM xài trong chuẩn HBM
Giải pháp HBM thương mại sắp được triển khai vào các sản phẩm thực tế sử dụng 4 con chip DRAM chồng lên nhau theo chiều dọc,
mỗi chip có 2 kênh truyền dữ liệu tương tự như giao diện DDR tiêu
chuẩn. Như vậy cứ một cụm HBM 4 chip thì sẽ có 8 kênh, mà tuyệt hơn nữa
là mỗi kênh này đều độc lập với nhau nên những gì xảy ra ở một kênh sẽ
không làm ảnh hưởng đến các kênh còn lại. Dung lượng của chúng có thể từ
1 đến 32GB tùy theo ý định của nhà sản xuất.
Ở thời điểm ban đầu, các chip HBM sẽ được đặt BÊN CẠNH bộ xử lý
(CPU/GPU/SoC). Chính vì thế giải pháp này được gọi là 2,5D mà thôi.
Trong tương lai, các nhà sản xuất sẽ tiếp tục phát triển nó thành 3D
thực thụ, lúc đó các cụm DRAM có thể nằm bên trên bộ xử lý.
HBM sẽ cạnh tranh trực tiếp với Hybrid Memory Cub (HMC), cũng là một loại bộ nhớ xếp chồng lên nhau, có điều đứng sau nó là Intel và Micron. Samsung cũng có dòng chip nhớ 3D của riêng mình.
Cấu trúc của bộ nhớ HBM 2,5D: 4 con chip DRAM đặt chồng lên nhau, bên
dưới nó là lớp nền và các lớp liên kết (Interposer), đặt bên cạnh SoC
2. Lợi ích của HBM
Lợi ích đầu tiên đó là tốc độ. Do chip nhớ DRAM được đặt gần bộ
xử lý hơn nên tốc độ truyền tải sẽ nhanh hơn. Giải pháp TSV cũng góp
phần tăng cao tốc độ truyền tải so với việc sử dụng các kênh RAM riêng
lẻ như truyền thống. Theo số liệu của NVIDIA, một kênh bộ nhớ HBM thì sẽ
mang lại băng thông khoảng 16 đến 32GB/s. Với giải pháp 4 chip 8 kênh
như đã nói ở trên, chúng ta có tổng băng thông lên đến 128-256GB/s. Và
nếu ghép nhiều cụm chip lại thì con số này còn tăng lên nữa.
Để các bạn dễ so sánh thì GPU mạnh nhất của NVIDIA hiện tại dùng cho mục
đích chơi game là GeForce GTX TITAN Black, nó sử dụng giao tiếp GDDR5
và có băng thông vào khoảng 336GB/s. Với các GPU trong tương lai sử dụng
4 cụm HBM (4 * 4 = 16 con chip DRAM), băng thông này hoàn toàn có thể
đạt đến mức 512GB đến 1TB/s.
Lợi ích thứ hai là về diện tích. Một cụm chip HBM chỉ tốn khoảng
42mm vuông mà thôi, trong khi chip DDR3 thì phải cần đến 117mm vuông.
Kết hợp với việc nó có thể được chồng lên trên bộ xử lý (hoặc đặt bên
cạnh), người ta có thể làm ra những thiết bị ngày càng nhỏ gọn hơn mà
không phải hi sinh hiệu năng.
Lợi ích thứ ba là về năng lượng. HBM có mức độ tiêu thụ điện trên
mỗi chân chip thấp hơn nhiều so với GDDR5 lẫn DDR4, dòng điện cần để bộ
nhớ hoạt động cũng thấp hơn nên hiệu quả tiêu thụ điện cao hơn. AMD cho
biết các GPU xài bộ nhớ HBM của họ sắp ra mắt trong năm sau có tỉ số
hiệu năng/watt điện cao gấp 3 lần so với chuẩn GDDR5 hiện nay, còn mức
độ tiêu thụ điện thì giảm đi 42% đến 50%.
3. Hai thế hệ HBM
Hiện tại HBM đã được phát triển lên đến thế hệ thứ 2, và đây cũng là thế
hệ sẽ được AMD xài cho các GPU của mình vào năm 2016. Hay nói cách
khác, khi vừa đến tay người dùng thì HBM đã đạt đến thế hệ 2 rồi. Bên
dưới là sự khác biệt cơ bản giữa HBM Gen 1 và Gen 2.
4. Các tính năng khác của HBM
Bộ nhớ máy tính thường được chia thành các "bank", có thể hiểu như các
phân nhánh nhỏ của bộ nhớ, để cho phép việc truy cập song song diễn ra
dễ dàng hơn, và trong máy tính bình thường của chúng ta thì mỗi khe gắn
RAM sẽ có nhiều bank.
Trong quá trình DRAM hoạt động, điện tích của mỗi cell sẽ bị giảm đi
theo thời gian. Chính vì thế, chuẩn DDR yêu cầu mỗi cell nhớ phải được
"làm mới" sau mỗi 64 micro giây, và khi việc này diễn ra thì tất cả các
bank đều phải bị đóng lại khiến băng thông tiềm năng bị giảm đi 5-10%.
Còn với chuẩn HBM, mỗi bank có thể được làm mới riêng rẽ nên bus dữ liệu
lúc nào cũng trong trạng thái "kích hoạt" cả. Song song đó, nếu bank
này đang đóng thì bank khác sẽ chạy những tác vụ như đọc hoặc lấy dữ
liệu nhằm tiết kiệm thời gian.
Ngoài ra, HBM còn có thể điều chỉnh tần số làm mới dựa theo nhiệt độ của
thiết bị. Bộ điều khiển (memory controller) sẽ lấy thông tin từ một cảm
biến nhiệt để điều chỉnh cho phù hợp: nếu máy đang ở chế độ nghỉ và mát
mẻ thì tần số sẽ khác, nếu nhiệt độ nóng lên lúc tải nặng thì sẽ khác.
5. Kết
Tóm lại thì HBM có 4 điều cần lưu ý như sau:
- Tốc độ cao hơn so với RAM DDR truyền thống, có thể lên tới 256GB/s cho mỗi cụm chip HBM
- Dung lượng mỗi cụm RAM cao hơn, mỗi cụm có thể lên tới 8GB, và có thể ghép nhiều cụm lại với nhau
- Giúp tạo ra những thiết bị nhỏ hơn, gọn hơn
- Hiệu quả tiêu thụ năng lượng tốt hơn
Vào năm sau AMD sẽ bắt đầu tung ra những GPU đầu tiên dùng HBM. Và
không chỉ riêng AMD, NVIDIA cũng đã lên kế hoạch xài HBM cho thế hệ bộ
xử lý đồ họa kế tiếp của họ (tên mã Pascal). Lúc đó, những chiếc card đồ
họa hay GPU của laptop sẽ không còn ghi là "GDDR5" nữa mà sẽ chuyển
sang chữ HBM, và hãy chờ xem hiệu năng thực thụ của chính sẽ như thế nào
nhé.
Tầm nhìn của AMD về tương lai của thiết bị điện toán, chúng bao gồm những thành phần sau
Không có nhận xét nào:
Đăng nhận xét