Saturday, June 29, 2013

100% TĂNG VÒNG 1 THÀNH CÔNG. NƯỚC CHÂN GÀ --- BÍ QUYẾT HOT CỦA CÁC CHỊ EM PHỤ NỮ VIỆT NAM GIÚP TĂNG VÒNG 1 HIỆU QUẢ.


100% TĂNG VÒNG 1 THÀNH CÔNG.
NƯỚC CHÂN GÀ --- BÍ QUYẾT HOT CỦA CÁC CHỊ EM PHỤ NỮ VIỆT NAM GIÚP TĂNG VÒNG 1 HIỆU QUẢ.

Vậy là cả nhà mình đã xây xong tầng 1 rồi , có nhiều bạn thành công (1 tháng tăng 3 cm), có bạn chưa thành công vì không đủ thời gian để theo hoặc quá sốt ruột nên quyết định ra nhập hội Thiên Nga sau 1 đêm. Mình sẽ tóm tắt lại các nội dung và kinh nghiệm rút ra từ Tầng 1 để mọi người tiện theo dõi nhé
Sau 3 tháng áp dụng phương pháp tạm gọi là Nước chân gà vòng 1 của tớ biến chuyển như từ 83cm lên 89cm, đo nới lỏng 1 tí thì 90cm (size A75 lên D70), cân nặng giảm từ 47kg còn 45.5kg, chiều cao không đổi . Trước đây muốn có tí khe thì tớ phải dùng áo push up level 4, 5 nhưng giờ thì thả rông mặc áo phông vẫn ổn. Ông xã thì khỏi phải nói, mê mẩn tâm hồn , nói túm lại là tớ cực kỳ hài lòng với phương pháp ngon, bổ, rẻ này vì không phải chịu đau đớn, không phải mất hơn 70 triệu để phẫu thuật và không mang tiếng hàng dỏm nữa.
Phương pháp này đòi hỏi sự kiên trì ít nhất trong 3 tháng (với tớ thì sau 1 tháng kết quả đã rõ rành rành rồi), thế nên mẹ nào mong muốn đồi núi nhấp nhô sau 1 đêm thì không nên đọc tiếp ạ.
Tất cả những gì tớ viết ở đây là kinh nghiệm của bản thân (và cóp nhặt từ các forum nâng ngực tự nhiên của nước ngoài), tớ không biết cơ sở khoa học của nó là gì nên các mẹ đừng hỏi vì sao lại thế này mà không thế kia nhé.
Hiện tại có một số mẹ trong forum cũng đang theo đuổi phương pháp này, hi vọng đây sẽ là ngôi nhà chung của chị em chúng mình.
Các mẹ sẵn sàng chưa ạ, bắt đầu nhé.

*** ĐỒ ĂN THỨC UỐNG ***

- Nước chân gà: mua 1 gói tầm 20 chân gà ở Big C (tầm 30 nghìn), rửa sạch, hầm với 1 lít nước trong nồi áp suất khoảng 2 tiếng cho đến khi nước hầm chuyển màu trắng đục là được. Chia nước làm nhiều phần cho vào ngăn mát tủ lạnh, đến hôm sau nó sẽ đông đặc như thạch. Nước chân gà dùng để nấu canh đu đủ xanh, nấu mì, nấu súp, nấu bún...tức là bất cứ món gì cần đến nước dùng ạ (có mẹ cực đoan còn húp nước không cơ ạ ), dùng hằng ngày nhé. 1 lít này tớ dùng trong khoảng 3 ngày là hết, lại mua, lại hầm.
- Các món canh:
Súp măng tây, canh đu đủ xanh, canh móng giò hầm lạc, canh rong biển (dùng nước chân gà để nấu canh nhé).
- Viagra tự nhiên: rất ngạc nhiên là các món bổ thận tráng dương lại cực kỳ có ích với mục tiêu cải thiện V1, bao gồm: sò huyết (tốt cực nhé), thịt dê, giá đỗ... (những cái khác tớ chưa thử nhé).
- Gia vị : vừng rang, ớt, thì là
- Đồ uống: sữa đậu nành (bắt buộc nhé), giúp V1 tròn đầy và da dẻ trắng mịn. Một số mẹ khuyên dùng Ensure nhưng tớ chưa thử, với lại cũng dễ tăng cân. Ngoài ra các mẹ cũng có thể dùng trà thì là, cốm lợi sữa.
- Hoa quả: đào (hơi nóng nhưng mà tốt), các quả khác tớ vẫn chén đều nhưng hiệu quả không rõ như đào.
- Kiêng khem:: không được dùng đồ lạnh, nước đá nhé, nói chung nên ăn nóng sốt.

*** TẬP LUYỆN ***

- Bên cạnh ăn uống thì massage cũng góp phần không nhỏ trong việc nâng cấp V1, mình áp dụng Chi Massage, ngày 2 lần, mỗi lần 360 cái, video hướng dẫn đây nhé.
http://flat2fab.com/blog/top-5-secre...t-enlargement/
Ngoài ra các mẹ có thể kết hợp tập tạ tay, chống đẩy cũng rất tốt cho cơ ngực ạ.
- Bài tập đang thử nghiệm
Bước 1: Đứng thẳng, hai tay xuôi dọc theo người
Bước 2: Đưa tay phải lên cao, rướn như đang với cái j đó
Bước 3: Hạ tay phải xuống, đồng thới đưa tay trái lên
Làm liên tục 100 lần như vậy, trong khi tập sẽ thấy ngực vươn về phía trước. Lưu ý nên mặc bra để bảo vệ ngực lúc tập nhé.
Mình tập ngày 2 lần vào buổi sáng và buổi tối, mỗi lần không mất quá 2 phút đâu.
Thảo dược đang thử nghiệm: Borage oil (order từ nước ngoài, VN chưa có)
Kem Massage kết hợp: Mua tại đây https://www.facebook.com/photo.php?fbid=482297695114911&set=a.482297595114921.118331.100000040541999&type=3&theater

*** CHỌN ĐÚNG SIZE ÁO NGỰC ***

Điều này cực kỳ quan trọng ạ, vì mỗi lần mặc nhầm size là chúng ta lại bỏ qua 1 cơ hội để ngực nảy nở đấy ạ.
Các mẹ dùng thước dây và đo lại xem nhé:
- Vòng chân ngực : đo sát chân đồi đấy ạ, hơi xiết 1 tí
Đây là số đo xác định size áo. Ví dụ từ 63cm đến 67cm là size 65 (tính bằng inch là size 30); từ 68cm đến 72cm là size 70 (tức size 32); từ 73cm đến 77cm là size 75 (tức size 34)....
- Vòng đỉnh ngực: đo chỗ nở nhất của ngực, thông thường là đi qua núm ti, hơi nới lỏng một chút.
Vòng này phục vụ để tính cup áo, ngực có đẹp hay không là phụ thuộc cup áo chứ không phải size 70, 75 đâu nhé.
Cup = Vòng đỉnh ngực - Vòng chân ngực
Cup AA : hiệu số <= 12cm
Cup A:hiệu số <=14cm
Cup B: hiệu số <=16cm
Cup C: hiệu số<=18cm
Cup D: hiệu số <=20cm
Cách tính cup có sự khác biệt nhỏ giữa Nhật/EU với Mỹ, các mẹ khi mua áo nhớ thử để đảm bảo vừa vặn.

Friday, June 28, 2013

Cài đặt phần mềm chụp ảnh gốc của Android 4.2 với hiệu ứng Photo Sphere | Tinhte.vn - Cộng đồng Khoa học & Công nghệ

[IMG]

HTC One và Samsung Galaxy S 4 phiên bản Google đã được bán ra với Android 4.2 thuần không chỉnh sửa, cả hai cùng sử dụng phần mềm chụp ảnh gốc của Android với hiệu ứng Photo Sphere lạ mắt mà không có hãng nào có. Người ta đã trích file apk của phần mềm camera này ra và giờ thì chúng ta có thể sử dụng nó để cài đặt trên bất kì máy android nào cũng được, không bị giới hạn trong dòng nexus nữa. Yêu cầu duy nhất là máy bạn đang chạy Android 4.x Ice Cream Sandwich hoặc Jelly Bean. Sau khi cài đặt thì bạn có thể sử dụng phần mềm camera này thay cho phần mềm chụp ảnh có sẵn của máy, nó có đầy đủ các tính năng cần thiết. Riêng tính năng Photo Sphere giúp bạn có thể chụp hình với góc xoay 360 độ, chụp toàn cảnh xung quanh vị trí đứng của mình.

Wednesday, June 26, 2013

Camera Tinh Tế - Định dạng ảnh RAW & JPEG

Camera Tinh Tế - Định dạng ảnh RAW & JPEG

[Camera] Đọc ký hiệu trên ống kính

Camera Tinhte - Cuhiep phơi đêm

[Camera] Điều chỉnh ISO

Tinhte.vn - Chụp đẹp hơn với đèn flash (Phần 6)

Tinhte.vn - Chụp đẹp hơn với đèn flash (Phần 5)

Tinhte.vn - Chụp đẹp hơn với đèn flash (Phần 5)

Tinhte.vn - Chụp đẹp hơn với đèn flash (Phần 4)

Tinhte.vn - Chụp đẹp hơn với đèn flash (Phần 3)

Review Chụp đẹp hơn với đèn flash Phần 2

Review Chụp đẹp hơn với đèn flash Phần 1

Sunday, June 23, 2013

Một số thông tin cơ bản về 802.11ac, chuẩn Wi-Fi thế hệ thứ năm

WiFi_5G_80211ac

Trong khoảng một năm trở lại đây chúng ta được nghe nhắc nhiều đến chuẩn Wi-Fi 802.11ac, hay còn gọi là Wi-Fi thế hệ thứ năm. Nó là chuẩn mạng không dây đang ngày càng xuất hiện nhiều hơn trên các router, máy tính và tất nhiên là cả các thiết bị di động như smartphone. So với Wi-Fi 802.11n đang được dùng phổ biến hiện nay, chuẩn 802.11ac mang lại tốc độ nhanh hơn. Nhưng đó liệu có phải là tất cả? Mời các bạn xem qua bài viết này.

IEEE 802.11ac là gì?

Các chuẩn mạng Wi-Fi mà chúng ta sử dụng hiện nay đều thuộc bộ tiêu chuẩn IEEE 802.11 đi kèm một hoặc nhiều chữ cái phía sau. IEEE là chữ viết tắt cho Institute of Electrical and Electronics Engineers, tạm dịch là Hiệp hội các kĩ sư Điện và Điện Tử, cơ quan có trách nhiệm phê chuẩn cấu hình cũng như thúc đẩy sự phát triển của Wi-Fi. Từ năm 1999 đến nay, các chuẩn mạng Wi-Fi được sử dụng rộng rãi bao gồm:
  • (1997) 802.11: Wi-Fi thế hệ thứ nhất, có thể mang lại tốc độ 1Mb/s và 2Mb/s, sử dụng băng tần 2,4GHz của sóng radio hoặc hồng ngoại.
  • (1999) 802.11b: Wi-Fi thế hệ thứ hai, có khả năng mang lại tốc độ 11Mb/s ở băng tần 2.4 GHz trên sóng radio.
  • (1999) 802.11A: Wi-Fi thế hệ thứ ba, tuy nhiên nó lại ra mắt cùng thời điểm với 802.11b. chuẩn A mang lại tốc độ truyền tải nhanh hơn, lên đến 54Mb/s vì sử dụng băng tần 5GHz nhưng lại bị hạn chế về tầm phủ sóng so với 802.11b.
  • (2003) 802.11g: Wi-Fi thế hệ thứ ba, tốc độ truyền tải 54Mb/s và sử dụng băng tần 2,4GHz. Đây là chuẩn mạng vẫn còn xuất hiện ở nhiều thiết bị đến tận ngày hôm nay.
  • (2009) 802.11n: Wi-Fi thế hệ thứ tư, tốc độ tối đa 600Mb/s (trên thị trường phổ biến có các thiết bị 150Mb/s, 300Mb/s và 450Mb/s). Chuẩn này có thể hoạt động trên cả hai băng tần 2,4GHz lẫn 5GHz và nếu router hỗ trợ thì hai băng tần này có thể cùng được phát sóng song song nhau.
  • (201x) 802.11ac: tốc độ tối đa hiện là 1730Mb/s (sẽ còn tăng tiếp) và chỉ chạy ở băng tần 5GHz. Một số mức tốc độ thấp hơn (ứng với số luồng truyền dữ liệu thấp hơn) bao gồm 450Mb/s và 900Mb/s. Hiện chuẩn này chưa được phê duyệt chính thức nhưng điều đó sẽ sớm xảy ra mà thôi, có thể là ngay trong năm 2013 này.
WiFi_timeline
Theo Cisco, hiện chúng ta đang ở giai đoạn Wave 1 của Wi-Fi 802.11ac, sau đó sẽ có thêm Wave 2 và thậm chí là Wave 3. Bạn hãy nhìn biểu đồ bên dưới, màu đỏ là tốc độ tối thiểu, màu xanh dương là tốc độ phổ biến. Đường màu đen ghi chữ Product Max là tốc độ tối đa chúng ta có thể thấy trên các sản phẩm thương mại, còn đường STD Max là tốc độ cao nhất có thể đạt được theo cấu hình lý thuyết.
Wi-Fi_ac_wave
Về mặt lý thuyết, Wi-Fi 802.11ac sẽ cho tốc độ cao gấp ba lần so với Wi-Fi 802.11n ở cùng số luồng (stream) truyền, ví dụ khi dùng ăng-ten 1x1 thì Wi-Fi ac cho tốc độ 450Mb/s, trong khi Wi-Fi n chỉ là 150Mb/s. Còn nếu tăng lên ăng-ten 3x3 với ba luồng, Wi-Fi ac có thể cung cấp 1300Mb/s, trong khi Wi-Fi n chỉ là 450Mb/s. Tuy nhiên, những con số nói trên chỉ là tốc độ tối đa trên lý thuyết, còn trong đời thực thì tốc độ này sẽ giảm xuống tùy theo thiết bị thu phát, môi trường, vật cản, nhiễu tín hiệu...

Xem video Buffalo trình diễn mạng 802.11ac tại CES 2012

Ngoài tốc độ ra, 802.11ac còn có điểm gì mới?

1. Băng thông kênh truyền rộng hơn: Băng thông rộng hơn giúp việc truyền dữ liệu giữa hai thiết bị được nhanh hơn. Trên băng tần 5GHz, Wi-Fi 802.11ac hỗ trợ các kênh với độ rộng băng thông 20MHz, 40MHz, 80MHz và tùy chọn 160MHz. Trong khi đó, 802.11n chỉ hỗ trợ kênh 20MHz và 40MHz mà thôi. Như đã nói ở trên, kênh 80MHz thì tất nhiên chứa được nhiều dữ liệu hơn là kênh 40MHz rồi.

Bang_thong

2. Nhiều luồng dữ liệu hơn: Spatial stream là một luồng dữ liệu được truyền đi bằng công nghệ đa ăng-ten MIMO. Nó cho phép một thiết bị có thể phát đi cùng lúc nhiều tín hiệu bằng cách sử dụng nhiều hơn 1 ăng-ten. 802.11n có thể đảm đương tối đa 4 spatial stream, còn với Wi-Fi 802.11ac thì con số này được đẩy lên đến 8 luồng. Tương ứng với đó sẽ là 8 ăng-ten, còn gắn trong hay ngoài thì tùy nhà sản xuất nhưng thường họ sẽ chọn giải pháp gắn trong để đảm bảo tính thẩm mỹ.

3. Hỗ trợ Multi user-MIMO: Ở Wi-Fi 802.11n, một thiết bị có thể truyền nhiều spatial stream nhưng chỉ nhắm đến 1 địa chỉ duy nhất. Điều này có nghĩa là chỉ một thiết bị (hoặc một người dùng) có thể nhận dữ liệu ở một thời điểm. Người ta gọi đây là single-user MIMO (SU-MIMO). Còn với chuẩn 802.11ac, một kĩ thuật mới được bổ sung vào với tên gọi multi-user MIMO. Nó cho phép một access point sử dụng nhiều ăng-ten để truyền tín hiệu đến nhiều thiết bị (hoặc nhiều người dùng) cùng lúc và trên cùng một băng tần. Các thiết bị nhận sẽ không phải chờ đợi đến lượt mình như SU-MIMO, từ đó độ trễ sẽ được giảm xuống đáng kể.

MU_MIMO

Tuy nhiên, Multi user-MIMO là một kĩ thuật khó và ở thời điểm hiện tại, nó sẽ không có mặt trên các access point và router Wi-Fi 802.11ac. Phải đến đợt thứ hai (wave 2) thì ..-MIMO mới có mặt, nhưng sự hiện diện cũng sẽ rất hạn chế.

Thêm một số thông tin cho bạn về ăng-ten MIMO. Ăng-ten phát được kí hiệu là Tx, và ăng-ten thu là Rx. Trên một số thiết bị mạng như router, card mạng, chip Wi-Fi, bạn sẽ thấy những con số như 2x2, 2x3, 3x3 thì số đầu tiên trước dấu nhân là ăng-ten phát (Tx), còn phía sau là ăng-ten thu (Rx). Ví dụ, thiết bị 2x2 là có 2 ăng-ten thu và 2 ăng-ten phát.

4. Beamforimg: Wi-Fi là một mạng đa hướng, tức tín hiệu từ router phát ra sẽ tỏa ra khắp mọi hướng. Tuy nhiên, các thiết bị 802.11ac có thể sử dụng một công nghệ dùng để định hướng tín hiệu truyền nhận gọi là beamforming (dịch ra thì chữ này có nghĩa là "tạo ra một chùm tín hiệu"). Router sẽ có khả năng xác định vị trí của thiết bị nhận, ví dụ như laptop, smartphone, tablet, để rồi tập trung đẩy năng lượng tín hiệu lên mức mạnh hơn hướng về phía thiết bị đó. Mục đích của beamforming đó là giảm nhiễu.

Beam_Forming
Mặc dù sóng Wi-Fi vẫn tỏa ra khắp mọi hướng, tuy nhiên với công nghệ beamforming thì chùm tín hiệu có thể được định hướng tốt hơn đến một thiết bị xác định trong vùng phủ sóng

Theo giải thích của Cisco, thực chất bất kì trạm phát Wi-Fi nào có nhiều ăng-ten đều có thể beamform, tuy nhiên Wi-Fi 802.11ac dùng kĩ thuật gọi là "sounding" để giúp router xác định vị trí của thiết bị nhận một cách chính xác hơn.

5. Tầm phủ sóng rộng hơn

Biểu đồ bên dưới do Netgear cung cấp, theo đó chúng ta có thể thấy rằng với cùng 3 ăng-ten, router dùng chuẩn 802.11ac sẽ cho tầm phủ sóng rộng đến 90 mét, trong khi router xài mạng 802.11n có tầm phủ sóng chỉ khoảng 80 mét là tối đa. Tốc độ của mạng 802.11ac ở từng mức khoảng cách cũng nhanh hơn 802.11n, biểu thị bằng vùng màu xanh dương luôn nằm cao hơn vùng màu xanh lá. Với những nhà, văn phòng rộng, chúng ta có thể giảm số lượng repeater cần dùng để khuếch đại và lặp tín hiệu, tiết kiệm được kha khá chi phí.

5g-wifi-speed-and-coverage-vs-11n


Router Wi-Fi 802.11ac sẽ tương thích ngược với các chuẩn cũ

Hiện nay, hầu hết các router Wi-Fi trên thị trường có hỗ trợ chuẩn 802.11ac sẽ hỗ trợ thêm các chuẩn cũ, bao gồm b/g/n. Chúng cũng sẽ có hai băng tần 2,4GHz lẫn 5GHz. Đối với những router có khả năng chạy hai băng tần cùng lúc (bạn sẽ thấy quảng cáo có chữ simultaneous), băng tần 2,4GHz sẽ được sử dụng để phát Wi-Fi n, còn 5GHz sẽ dùng để phát Wi-Fi ac.

Cũng chính vì khả năng phát song song như trên mà tốc độ tối đa do nhà sản xuất quảng cáo sẽ là phép cộng của tốc độ tối đa trên dải 2,4GHz và 5GHz. Ví dụ, router RT-AC66U của Asus có "max speed" là 1,75Gbps, bao gồm 1,3Gbps cho chuẩn ac ở băng tần 5GHz và 450Mbps cho chuẩn n ở băng tần 2,4GHz.

Ứng dụng của Wi-Fi 802.11ac

Ồ, hiểu rồi, Wi-Fi 802.11ac nhanh hơn, mạnh hơn đó, vậy thì nó giúp gì được cho chúng ta? Trước hết, với tốc độ truyền tải nhanh hơn, chúng ta sẽ có tốc độ kết nối Internet nhanh hơn. Hãy thử tưởng tượng nhà bạn có được một đường kết nối mạng lên đến 1Gbps (như Google Fiber ở Mỹ chẳng hạn), nếu chỉ sử dụng router Wi-Fi 802.11n thì bạn chỉ có tốc độ tối đa là 450Mb/s (nếu hai băng tần thì lên 900Mb/s là hết mức), chưa tận dụng được hết tốc độ mà nhà cung cấp đưa cho chúng ta. Còn nếu trong nhà bạn có một chiếc router 802.11ac thì bạn có thể tận dụng tốt nhất đường truyền mạng này bởi tốc độ tối đa có thể đạt mức 1,3Gbps lận.

Tất nhiên, ở Việt Nam chúng ta thì cơ sở hạ tầng mạng chưa phát triển được đến mức như thế, một gói cước cáp quang cho hộ gia đình cũng chỉ mới đạt khoảng 10Mbps là nhanh nên Wi-Fi 802.11n cũng đủ chơi rồi. Trong môi trường doanh nghiệp với cáp quang tốc độ siêu cao thì may ra Wi-Fi 802.11ac mới tỏ ra hữu ích.

Ngoài ra, Wi-Fi 802.11ac còn có thể được áp dụng để truyền dữ liệu giữa các thiết bị trong một mạng nội bộ hoặc mạng gia đình với tốc độ cao hơn hiện nay. Một ứng dụng dễ thấy nhất là để stream video Full-HD. Trong một đợt trình diễn, hãng Netgear có thể sử dụng router 802.11ac của họ để truyền 4 bộ phim Full-HD cùng lúc đến bốn chiếc HDTV khác nhau, điều không thể làm được với Wi-Fi n hiện nay. Nó cũng sẽ giúp quá trình sao chép dữ liệu giữa máy tính, smartphone, tablet với ổ cứng mạng cũng như giữa các thiết bị với nhau được nhanh chóng hơn (về lý thuyết là chỉ tốn 1/3 thời gian so với chuẩn 802.11n). Và thời thời gian chờ đợi ngắn hơn kéo theo thời lượng pin sẽ dài hơn bởi năng lượng tiêu thị ít hơn.

Một số thiết bị hiện có trên thị trường hỗ trợ cho 802.11ac
Vậy còn các chữ khác của Wi-Fi 802.11 như thế nào?

Chúng ta đã thấy a, b, g, n, ac được dùng trong tên gọi của các chuẩn mạng không dây, tuy nhiên điều đó không có nghĩa là các chữ cái khác bị bỏ qua. Chúng ta có c, d, e, f, h, k, u, v, w, y, thậm chí là aa, ad, ae, mc, aj... Mỗi một chữ như thế sẽ ứng với mạng dùng cho các mục đích khác nhau, ví dụ như 802.11c dùng trong quá trình bắt cầu mạng, 802.11y bao gồm băng tần 3650–3700 MHz xài ở Mỹ, còn 802.11aj dùng cho mạng của quân đội Trung Quốc. Một số trong số đó là phần bổ sung (amendment) cho một chuẩn hiện có, ví dụ như 802.11e là mở rộng của 802.11.

Laptop chơi game mỏng nhẹ như ultrabook, họ đã làm điều đó như thế nào?

gs70
MSI GS70 Stealthlaptop chơi game 17" nhưng mỏng và nhẹ

Năm nay tại Computex 2013 vừa kết thúc hồi đầu tháng 6, chúng ta đã được thấy các hãng công nghệ giới thiệu nhiều dòng laptop chơi game với cấu hình mạnh mẽ nhưng có thiết kế rất mỏng và nhẹ, chỉ như những chiếc ultrabook mà thôi. Ví dụ điển hình nhất là Razer ra mắt dòng Blade Pro, Gigabyte giới thiệu 2 dòng ultrabook dành cho game thủ là P34G và P35K với độ dày chỉ 2cm và nặng trên dưới 2kg hoặc MSI tung ra mẫu máy GS70 Stealth cũng gọn nhẹ không kém. Vậy thì bạn có thắc mắc tại sao họ làm được điều đó hay không?

Đối với máy tính xách tay, từ trước tới nay chúng ta thường quen với quan niệm rằng khi cần một chiếc máy tính mạnh, chơi game ngon lành thì cũng có nghĩa là phải chấp nhận mua một chiếc máy to, dày và nặng, bởi chỉ có thiết kế cồng kềnh mới giúp nhà sản xuất nhét trong đó đủ thứ như CPU mạnh, GPU rời, RAM nhiều và ổ cứng dung lượng lớn... khiến máy to bè chứ không thể gọn gàng như chúng ta mong muốn. Nhưng gần đây, công nghệ ngày càng phát triển đã giúp các công ty sản xuất phần cứng máy tính thu nhỏ các linh kiện lại để giúp laptop chơi game ngày càng mỏng và nhẹ hơn.

Thông thường, ở một chiếc laptop chơi game có 3 thành phần phần cứng quan trọng nhất quyết định tới cấu hình của máy là CPU, GPU và RAM. Và phần lớn laptop chơi game thì 3 linh kiện này đều có thể thay thế được, tức là có thể gỡ ra để thay cái khác mạnh hơn khi cần nâng cấp, y hệt như trên máy tính để bàn, ví dụ dòng Alienware M15x/M17x/M18x của Dell, Asus RoG G70 series của Asus, MSI GT/GX series, các máy cơ bắp của Sager, Clevo... Cũng vì có thể thay thế CPU, GPU được nên những chiếc máy tính xách tay này cần quạt tản nhiệt lớn để đảm bảo làm mát cho các linh kiện đó, do đó mà thiết kế của chúng rất dày và nặng, như Alienware M17x dày đến 5cm và nặng 5kg.

Bên trong MSI GT60: CPU (màu xanh), GPU (màu đỏ), RAM (màu tím) và ổ cứng đều có thể dễ dàng tháo ra để nâng cấp.

MSI_GT60

Như vậy, để thu nhỏ độ dày và cân nặng của một chiếc laptop chơi game, nhà sản xuất bắt buộc phải hi sinh khả năng nâng cấp của chiếc máy, tức là người dùng sẽ không thể thay CPU và GPU cho nó, bằng cách hàn chết 2 linh kiện này lên trên bo mạch chủ, tức là sử dụng CPU và GPU loại chip dán (embedded), RAM thì vẫn thay được vì có khá ít dòng máy hàn chết RAM lên bo mạch. Như vậy, việc thu nhỏ được 2 linh kiện là CPU và GPU sẽ giúp thu gọn kích thước bo mạch và quạt tản nhiệt cũng sẽ được làm gọn gàng hơn, giúp chiếc máy mỏng và nhẹ hơn rất nhiều. Điểm chung của Razer Blade Pro, MSI GS70 Stealth và Gigabyte P35K là cả 3 chiếc máy này đều dùng chip đồ họa dán GeForce GTX 765M của nVIDIA.

Để tìm câu trả lời cho giải pháp này, mình đã liên hệ với bên hỗ trợ kĩ thuật của AMD và nVIDIA để được giải đáp:
675m
Card đồ họa rời GTX 675MX (Kepler) cho laptop của nVIDIA, giá trên eBay khoảng 300$

7970M
Card AMD Radeon HD 7970M cho Alienware M18x, bạn mình mua trên eBay khoảng 500$/cái
  • Ở các đời CPU của mình thì Intel đều có tùy chọn CPU phiên bản embedded để các đối tác có thể hàn lên bo mạch nhằm tiết kiệm không gian.
  • Đối với nVIDIA, card đồ họa rời loại chip dán mạnh nhất hiện nay cho máy tính xách tay là GeForce GTX 765M, chip này hỗ trợ 3GB RAM GDDR5, 128 bit với băng thông 64GB/giây, với TDP là 75W. GTX 765M có 768 nhân CUDA Kepler và chạy ở xung nhịp 850MHz, sức mạnh đồ họa xấp xỉ GeForce GTX 580M, chip đồ họa cho laptop mạnh nhất năm 2011.
  • Về phía AMD, con chip GPU dán (hàn lên bo mạch) mạnh nhất cho laptop hiện nay làRadeon HD 7870M, với TDP là 45W. Sắp tới phiên bản kế thừa trên nền Radeon HD 8000M series sẽ là HD 8870M. Điểm số benchmark của HD 7870M tương đương GeForce GTX 670M và thấp hơn GTX 580M khoảng 15-20%.
Ở đây mình sẽ lấy ví dụ minh họa là hình bo mạch của Macbook Pro retina, về cơ bản thì cách thiết kế của những ultrabook cho game thủ như MSI GS70, Gigabyte P35K hiện nay cũng tương tự, tức là hàn chết CPU và GPU lên bo mạch chủ. Trong hình thì vùng đánh dấu màu cam là CPU Intel Core i5 Ivy Bridge, màu đỏ là GPU nVIDIA GT 650M, màu xanh lục là RAM, màu vàng là chip điều khiển bo mạch.

GPU (1)
Ô màu cam là CPU Intel Core i5 Ivy Bridge, màu đỏ là GPU nVIDIA GT 650M,
màu xanh lục là RAM, màu vàng là chip điều khiển bo mạch.

GPU (3)
Nhờ dán chip lên bo mạch nên tản nhiệt của máy cũng rất mỏng

GPU (4)

Kết luận:

Như vậy, việc dán con chip GPU có kích thước tương đương CPU lên bo mạch chủ giúp nhà sản xuất thu gọn rất nhiều kích thước của chiếc laptop thông qua việc tiết kiệm được không gian của quạt tản nhiệt. Một GPU như GTX 765M hiện nay có sức mạnh đồ họa tương đương với GTX 580M, con chip GPU cho laptop mạnh nhất ra đời trước nó 2 năm đã cho thấy bước tiến nhanh chóng của khoa học kĩ thuật ngày nay. Tuy nhiên, GTX 765M vẫn chỉ được nVIDIA định vị ở phân khúc trung cấp, do đó nó chỉ xuất hiện trên các laptop và ultrabook mỏng nhẹ mà thôi, vì vậy những dòng laptop gaming truyền thống với khả năng nâng cấp dễ dàng CPU, GPU sẽ vẫn tồn tại để phục vụ nhu cầu của game thủ.

razer_blade_pro
Blade Pro của Razer

(Theo Tinh Tế)

Máy tính mainframe là gì và người ta sử dụng nó như thế nào? - Tìm hiểu cơ bản về siêu máy tính, những cỗ máy phức tạp và mạnh mẽ

IBM_zEnterprise_mainframe_tim_hieu
Máy mainframe System zEC12 do IBM sản xuất

Mainframe là một loại máy tính thường được sử dụng bởi các công ty, tập đoàn cũng như những tổ chức chính phủ nhằm phục vụ cho các công việc cần xử lí lượng lớn dữ liệu, chẳng hạn như thống kê dữ liệu, lên kế hoạch sử dụng tài nguyên, xử lí giao dịch… Thuở ban đầu, chữ mainframe được người ta dùng để chỉ những thùng máy lớn chứa bộ xử lí và bộ nhớ của những máy tính cỡ lớn. Thế nhưng sau này, khi nhắc tới mainframe, người ta nghĩ đến một cỗ máy to lớn và mạnh mẽ hơn những máy tính cá nhân. Ngoài ra, mainframe còn có tên gọi khác là "Big Iron". Vậy loại máy tính này có những đặc điểm gì, mời các bạn cùng đọc qua bài viết này.

Lịch sử mainframe

Vào những năm 1950-1970, nhiều nhà sản xuất máy tính đã bắt đầu tham gia vào việc chế tạo mainframe. Nhóm các nhà sản xuất này được biết tới với cái tên "IBM và bảy chú lùn", bao gồm IBM và các hãng như Burroughts, UNIVAC, NCR, Control Data, Honeywell, General Electric và RCA. Sau đó, General Electric và RCA rời đi nên nhóm này được gọi là "IBM và BUNCH" (chữ cái đầu tiên của các hãng còn lại). IBM bắt đầu sự thống trị trên thị trường mainframe bằng series 700/7000 và rồi đến series 360. Kiến trúc mainframe này lại tiếp tục tiến hóa để trở thành zSeries, dòng máy mainframe chủ lực của IBM tính đến thời điểm hiện tại.

ibm_7090_computer
Trong ảnh là mainframe IBM 7079. Chiếc 7079 đầu tiên được lắp đặt vào tháng 11 năm 1959. Vào năm 1960, một chiếc mainframe như thế nào được bán với giá 2.900.000$, còn nếu thuê thì giá là 63.500$ mỗi tháng.

Đó là những công ty ở Mỹ, còn bên ngoài đất nước này, nhiều hãng cũng tham gia sản xuất mainframe, bao gồm Siemens và Telefunken ở Đức, ICL của Anh, Olivetti của Đức, Fujitsu, Hitachi, Oki, NEC ở Nhật. Liên Xô cũng có làm ra một số máy mainframe copy từ IBM trong thời kì chiến tranh lạnh, ngoài ra họ cũng có series mainframe BESM và Strela do chính mình thiết kế.

mainframe_Hitachi
Mainframe Hitachi HDS GX 8110


Những năm đầu của thập niên 1970, nhu cầu của thị trường đối với mainframe ngày càng thu hẹp, trong khi môi trường cạnh tranh đang rất khốc liệt. Lúc đó, RCA đã về chung với UNIVAC, General Electric thì rời đi. Đến những năm 1980, tới lượt Honeywell sát nhập vào Bull, còn UNIVAC thì trở thành một phần của Sperry. Tới năm 1986, Sperry gia nhập cùng với Burroughts để tạo ra Tập đoàn Unisys. Năm 1991, AT&T sở hữu một phần của NCR.

Cũng trong thời gian đó, các công ty nhận thấy rằng thiết kế microcomputer (PC, laptop, desktop hiện nay của chúng ta có thể xem là microcomputer, tuy nhiên cụm từ này không còn được dùng phổ biến) có thể được triển khai với chi phí thấp hơn so với mainframe, người dùng thì có quyền kiểm soát hệ thống của mình nhiều hơn trước. Họ có thể thiết lập các mạng lưới máy tính cá nhân để thực hiện công việc của mình, vậy thì dại gì mà không chia tay mainframe. Các terminal (máy tính trạm cuối) để dùng chung với mainframe dần dần bị thay thế bởi PC. Chính vì thế, việc lắp đặt các cỗ máy mainframe mới ngày càng trở nên ít hơn, chỉ còn lại chính phủ và các tổ chức dịch vụ tài chính là còn sử dụng loại máy tính này. Người ta thậm chí còn dự đoán rằng chiếc mainframe cuối cùng sẽ ngừng hoạt động vào năm 1996.

Thế nhưng đến những năm cuối thập niên 1990, nhiều công ty tìm ra một cách mới để tận dụng chiếc mainframe hiện có thể mình. Trong bối cảnh chi phí xây dựng các mạng máy tính ngày càng đắt đỏ và phức tạp hơn, xu hướng điện toán tập trung (tức tập trung vào một máy duy nhất) được củng cố. Đà tăng trưởng cực kì mạnh mẽ của thương mại điện tử cũng kéo theo sự phát triển của các hệ thống xử lí nền dựa vào phần mềm của mainframe cũng như xử lí cơ sở dữ liệu.

Ngoài ra, sự phát triển của hệ điều hành Linux cũng giúp mainframe dần lấy lại vị thế của mình. IBM sử dụng Linux cho các máy mainframe của họ từ năm 1999 và một chiếc mainframe duy nhất có thể chạy hàng trăm máy ảo Linux cùng lúc. Khả năng hỗ trợ tốt cho các phần mềm nguồn mở của Linux cũng giúp mainframe được ưa chuộng hơn. Cuối năm 2000, IBM giới thiệu kiến trúc 64-bit z/Architecture, đồng thời mua lại nhiều công ty phần mềm để rồi tích hợp những phần mềm đó vào trong mainframe của hãng.

Định nghĩa mainframe

Hiện nay, mainframe được định nghĩa là những cỗ máy tính có các thành phân bên trong độc lập nhưng có khả năng phối hợp tốt để cung cấp độ tin cậy ở mức cao. Nó có khả năng lấy vào một lượng dữ liệu khổng lồ, tính toán, xử lí và xuất ra kết quả cũng khổng lồ không kém. Mainframe đòi hỏi phải có một sự tương thích ngược chặt chẽ với các phần mềm cũ bởi những công ty, tổ chức lớn sử dụng những phần mềm có tính chuyên biệt cao nên và rất tốn kém nếu phải viết lại. Ngoài ra, mainframe được thiết kế để có thể chạy liên tục (uninterrupt) trong một thời gian rất dài. Đây cũng chính là yếu tố quan trọng nhất của mainframe bởi nó vốn được dùng cho những mục đích mà chỉ cần vài phút hệ thống bị sập là một "thảm họa" sẽ xảy ra, hoặc nếu hệ thống ngừng chạy dù chỉ trong thời gian ngắn thì chi phí để khôi phục hoạt động là cực kì đắt đỏ.

Việc cập nhật phần mềm trên máy mainframe thường đòi hỏi thiết lập lại hệ điều hành hoặc một phần của nó. Còn tính chất chạy không ngừng nghỉ của mainframe chỉ có được khi sử dụng những kiến trúc hệ điều hành ảo hóa như z/OS hay Parallel Sysplex của IBM, XPLC của Unisys. Các kiến trúc ảo hóa này cho phép một hệ thống đảm đương nhiệm vụ của hệ thống khác trong quá trình người ta cập nhật, nâng cấp hay sửa chữa.

Để có thể tận dụng hết thế mạnh về khả năng xử lí và hoạt động liên tục của mainframe cần đến những kĩ sư được đào tạo chuyên nghiệp và bài bản. Việc bảo trì, lắp đặt mainframe không đơn giản như ráp một bộ máy để bàn ở nhà. Nếu không cẩn thận và làm cho hệ thống bị hư hỏng một phần nào đó thì tất cả lợi thế của mainframe đối với cơ quan, tổ chức sẽ bị mất đi hoàn toàn.

Ngoài ra, mainframe còn có tính bảo mật cao hơn nhiều so với những loại máy tính khác hiện nay. Các tổ chức nghiên cứu của Mỹ đánh giá những mainframe như IBM zSeries, Unisys Dorado, Unisys Libra là các hệ thống an toàn nhất thế giới bởi số nguy cơ bảo mật của chúng chỉ có đếm trên đầu ngón tay, trong khi các máy Windows, Linux và Unix thì có đến hàng nghìn lỗ hổng có thể bị khai thác. Nói tóm lại, ở thế giới của mainframe không hề tồn tại virus hay malware, chính vì thế mà nhiều chính phủ vẫn tin dùng nó để xử lí và lưu trữ dữ liệu.

IBM_z10
IBM z10, một dòng mainframe được dùng phổ biến hiện nay

Ban đầu, người ta xài các thẻ, băng giấy và băng từ để chuyển dữ liệu cũng như để lập trình cho mainframe. Khi đó, máy hoạt động như một công cụ xử lí hàng loạt nhằm hỗ trợ cho công việc văn phòng. Các terminal được dùng kèm với mainframe để chạy ứng dụng chứ không phải để phát triển phần mềm. Đến khoảng năm 1970, bàn phím, màn hình xuất hiện để cung cấp một giao diện cho phép người dùng nhập liệu cũng như theo dõi kết quả.

card_IBM
Một thẻ (card) dùng để lưu trữ dữ liệu của các mainframe xưa cũ

3278-IBM_Terminal
3278, một chiếc terminal phổ biến dùng để truy cập và sử dụng mainframe do IBM sản xuất

Sau đó, mainframe hoạt động như một máy tính "timesharing" để hỗ trợ hàng trăm người dùng cùng truy cập vào mainframe để chạy các thao tác xử lí hàng loạt. Đến năm 1980, nhiều máy mianframe hỗ trợ các terminal đồ họa (không phải giao diện đồ họa người dùng - GUI - như trên PC). Từ sau năm 2000 trở đi, hầu hết những mainframe hiện đại đã phần nào hoặc hoàn toàn loại bỏ các terminal cổ điển, thay vào đó người dùng cuối sẽ giao tiếp với máy thông qua giao diện nền web hoặc các console. Và để kết nối vào mainframe, người dùng không bắt buộc phải ngồi kế bên nó. Các PC và Terminal có thể truy cập vào mainframe từ xa.


Những phần cứng cấu tạo nên mainframe

So_do_cau_truc_mainframeCấu tạo đơn giản của một chiếc mainframe

Một chiếc mainframe tiêu biểu sở hữu các bộ xử lí (PU), bộ nhớ RAM, các kênh dữ liệu vào ra (I/O channel), các bộ điều khiển (control unit) và thiết bị ngoại vi (peripheral devices). Trong đó, PU chính là bộ não của mainframe, nó là đơn vị có nhiệm vụ thực thi các chỉ dẫn. Một máy mainframe có thể chứa nhiều bộ xử lí, chẳng hạn như: bộ xử lí trung tâm (Central Processor, viết tắt là CP hay CPU), bộ xử lí mã hóa và giải mã (CPACF), bộ xử lí tải Linux (IFL), có cái dùng để thực thi mã Java (zAAP), cái khác nữa thì xài cho việc tăng tốc xử lí cơ sở dữ liệu(zIIP). CP và RAM sẽ được đặt trong một thùng máy lớn gọi là Central Processor Complex (CPC).

Ví dụ, nếu mua một chiếc mainframe z10 của IBM sản xuất, bạn sẽ có trong đó 12 CPU, 12 IFL, 12 bộ ICF, 6 bộ zAAP và 6 bộ zIIP. Bộ nhớ của RAM của z10 có thể đạt tối đa 384GB tùy mục đích sử dụng.

I/O channel là những đường di chuyển và điều khiển dữ liệu giữa thiết bị nhập, xuất dữ liệu với bộ nhớ. Những thiết bị ngoại vi như đầu băng từ, ổ đĩa, đầu đọc thẻ, máy in... được kết nối với mainframe thông qua các channel này. Và bởi vì các thiết bị ngoại vi này chậm hơn CPU, CPU có thể sẽ tốn thời gian chờ dữ liệu từ chúng chuyển sang. Chính vì thế mà người ta mới tạo ra các bộ điều khiển Control Unit, chính là peripheral processor mà bạn đã đọc thấy ở trên, chuyên đảm nhận các tác vụ với thiết bị ngoại vi.

Còn cổng kết nối thì sao? Như bạn đã biết, thiết bị ngoại vi kết nối với máy tính của chúng ta qua cổng USB, trên Mac có FireWire, Thunderbolt, trên server là SCSI. Tương tự như thế, các kết nối trên mainframe là OSA, ESCON và FICON. Những kênh OSA Express dùng cho mạng LAN thông thường, mạng theo dạng token (vòng tròn). Trong khi đó, ESCON và FICON thì dùng cho cáp quang với tốc độ truyền tải cực cao.

Mainframe chủ yếu sử dụng giao diện dòng lệnh để giao tiếp với người dùng, cũng như Terminal trong Linux hay Command Prompt trong Windows. Đối với hệ điều hành zOS của IBM dành cho mainframe, giao diện dòng lệnh này được gọi là console. Tất nhiên là nó cũng có giao diện đồ họa người dùng nữa và theo IBM, họ đã đổ 100 triệu USD vào nghiên cứu giao diện đồ họa để giúp việc sử dụng mainframe trở nên đơn giản hơn.

Connect_to_mainframe
Giao diện khi kết nối vào mainframe

Console
Giao diện để thực thi lệnh trên mainframe

zos2
Anh kĩ sư IBM này đang sử dụng laptop của mình để truy cập vào mainframe chạy zOS và khai thác giao diện đồ họa người dùng bên trong hệ thống

Tính chất của mainframe

Những chiếc mainframe hiện đại cho phép chúng ta chạy nhiều "thực thể" (instance) hệ điều hành cùng lúc. Kĩ thuật ảo hóa này gần cho phép OS hoạt động cứ như là đang chạy trên một máy tính riêng biệt và sau này nó chính là Hypervisor dùng trên các server. Hiện nay kĩ thuật ảo hóa đã phổ biến hơn và có mặt ngay cả trong chiếc PC nhỏ xíu của chúng ta, thế nhưng mức độ và sức mạnh thì không thể nào bằng mainframe được. Có hai mức độ ảo hóa thường xuất hiện trên mainframe, bao gồm logical partition (mỗi phân vùng sẽ chứa một hệ điều hành) và virtual machine (nhiều máy ảo chạy trên một hệ điều hành).

Phần cứng của mainframe có thể được dễ dàng thêm hoặc thay thế mà không làm hệ thống bị ngừng hoạt động, điều mà nhiều server hiện nay không thể có được. Như đã nói ở trên, mainframe dùng trong những ứng dụng mà mỗi khi hệ thống ngừng là một "thảm họa" xảy ra, do đó nó không được phép dừng lại ngay cả khi nâng cấp phần cứng. Thông thường, mỗi tổ chức sẽ dùng hai máy mainframe, một cái đặt ở cơ sở hoạt động chính, cái còn lại đặt ở trung tâm dữ liệu có tác dụng sao lưu. Cỗ máy thứ hai này có thể được sử dụng ở trạng thái kích hoạt hoàn toàn, kích hoạt một phần hoặc chỉ đơn giản là nằm ở chế độ chờ để lỡ chiếc mainframe chính có gặp trục trặc hay bị thiên tai ảnh hưởng thì vẫn còn một cái để duy trì hoạt động của công ty. Các hệ thống lưu trữ mạng cũng được xài kèm với mainframe và được phân tán ở nhiều địa điểm khác nhau để đảm bảo tính an toàn.

Mainframe được thiết kế để đảm được một khối lượng rất lớn dữ liệu vào ra. Với mainframe thì việc xử lí những tập tin với dung lượng hàng gigabyte hoặc terabyte là chuyện thường ngày ở huyện mà thôi. Kể từ giữa thập niên 1960, mainframe nhận được sự hỗ trợ của nhiều bộ xử lí phụ, được gọi là channel hoặc peripheral processor. Các máy phụ này sẽ quản lí thiết bị nhập và xuất dữ liệu nhằm giúp CPU chính của mainframe tập trung hoàn toàn vào việc xử lí và chứa dữ liệu lên bộ nhớ. So với một PC thông thường, mainframe có thể dung lượng lưu trữ gấp hàng trăm hoặc hàng nghìn lần và có thể truy cập chúng nhanh hơn nhiều.

Thị trường mainframe

Các máy của IBM hiện đang chiếm lĩnh đến 90% thị trường mainframe. Phần còn lại chia đều cho hệ thống ClearPath của Unisys, các máy của Hitachi, NonStop của HP (mua lại từ hãng Tandem Computers), BS2000 và ICL VME của Fujitsu. Nhiều máy do Fujitsu, Hitachi và NEC vẫn còn đang được bán ở thị trường Nhật.

Về vi xử lí trung tâm (CP, hay CPU) dùng trong mainframe, Fujitsu và Hitachi vẫn tiếp tục sử dụng bộ xử lí dựa trên chuẩn S/390 tùy biến, ngoài ra còn có thêm các CPU như POWER, SPARC, MIPS và Xeon cho những máy tầm thấp. Bull thì sử dụng một hệ thống pha trộn giữa chip Intel Xeon với chip do mình phát triển. NEC và Bull cũng có những máu dùng chip Intel Xeon kết hợp với Intel Itanium. IBM, đúng với vị trí anh cả trong thị trường này, đã chi rất nhiều tiền vào nghiên cứu và phát triển các CPU riêng của mình, chẳng hạn như con chip dùng trong mainframe z10 ra mắt hồi năm 2008 với bốn nhân xung nhịp 4,4GHz.

Unisys-ClearPath_Libra_4100_Series_Photo1
Một chiếc mainframe Libra 4100 của hãng Unisys

Khác biệt giữa mainframe và siêu máy tính

Như mình đã nói ở trên, mainframe là cỗ máy được tạo ra để xử lí một lượng lớn dữ liệu, trong khi siêu máy tính tập trung vào một lượng nhỏ dữ liệu nhưng các phép tính thì cực kì phức tạp. Siêu máy tính tập trung vào tốc độ xử lí một vấn đề nào đó và chính vì thế, nó thường dùng cho các mục đích nghiên cứu khoa học. Một số khác biệt chính giữa siêu máy tính và mainframe như sau:

1) Tốc độ mainframe được đo bằng MIPS, tức bao nhiêu triệu chỉ dẫn mà máy có thể được thực hiện trong một giây. Trong khi đó, siêu máy tính thì đo bằng FLOPS, tức bao nhiêu phép tính dấu chấm động có thể xử lí mội giây. Nói về khả năng tính toán, supercomputer mạnh hơn mainframe.

2) Mainframe được xây dựng để xử lí "giao dịch" một cách ổn định, và giao dịch ở đây cũng giống như khái niệm được hiểu trong thế giới donah nghiệp. Nó bao gồm những việc như cập nhật cơ sở dữ liệu về lượng hàng còn trong kho, đặt vé máy bay, chuyển khoản,… Với mỗi "giao dịch", các thao tác mà máy có thể thực hiện đó là đọc và ghi dữ liệu vào đĩa, gọi các hàm/tính năng của hệ điều hành, di chuyển dữ liệu từ hệ thống này sang hệ thống khác.

Để biết thêm về siêu máy tính, mời các bạn đọc bài viết Tìm hiểu cơ bản về siêu máy tính, những cỗ máy phức tạp và mạnh mẽ. Nhiều tin tức về siêu máy tính cũng có thể xem qua tag siêu máy tính.

Vậy còn mainframe và server thì sao?

Có thể bạn sẽ nghĩ ngay rằng mainframe nghe cũng giống server đấy chứ. Thực chất, chúng ta cũng có thể xem mainframe là một dạng máy chủ bởi nó cũng có khả năng đóng vai trò làm "hub" cho nhiều máy khác hoặc terminal truy cập vào. Nhiều server có thể cùng nhau tạo thành một mạng lưới (server farm) và sức mạnh tính toán của hệ thống này chính là sự tổng hợp từ tất cả mọi server thành phần. Thế nhưng, nhược điểm của server farm đó là độ ổn định không cao, không thể nào sánh được với mainframe, đi kèm theo đó còn là chi phí bảo dưỡng cao, nhất là với những tổ chức có quy mô lớn. Chưa hết, hiệu quả sử dụng năng lượng của nhiều server nhỏ gộp lại không bằng được một chiếc mainframe duy nhất.

data-center-21
Đây là một server farm, bao gồm nhiều server đặt trong một tòa nhà gọi là data center




Tìm hiểu cơ bản về siêu máy tính, những cỗ máy phức tạp và mạnh mẽ


ibm-blue-gene-p-supercomputer
Một phần nhỏ của siêu máy tính Blue Gene/P của IBM

Trong thời gian gần đây chắc hẳn các bạn cũng được nghe nói nhiều về cụm từ siêu máy tính, hay supercomputer. Đây là một loại máy tính rất khác với những chiếc desktop, laptop mà bạn sử dụng hằng ngày. Nó có kích thước to hơn, sức mạnh vượt trội hơn rất nhiều lần so với các máy tính cá nhân. Cũng chính vì thế mà siêu máy tính không bao giờ được dùng để soạn văn bản, chơi game pikachu mà người ta áp dụng nó vào việc nghiên cứu khoa học, xử lí, tính toán phức tạp. Vậy siêu máy tính là gì, cấu tạo nó ra sao và người ta dùng nó vào việc gì?

Lịch sử siêu máy tính

Cụm từ siêu máy tính (supercomputer) lần đầu tiên xuất hiện trong một bài báo của tờ New York World vào năm 1929 dùng để chỉ các bảng tính khổng lồ mà IBM thiết lập ở Đại học Columbia. Những 1960, kiến trúc siêu máy tính được một kĩ sư người Mỹ tên là Seymour Cray làm việc cho tổ chức Control Data Corporation (CDC) thiết kế và chiếc CDC 6600 ra mắt năm 1964 được xem là supercomputer đầu tiên của thế giới. Seymour Cray được tôn vinh là cha đẻ của siêu máy tính.

Sau đó một thời gian, Cray muốn rời CDC cùng với một số đồng nghiệp nhưng bị CEO William Norris của công ty này từ chối vì Cray đang làm việc trên một dự án cho Hải quân Mỹ. Mãi đến năm 1972 Cray mới thực hiện được ý định này và ông đã lập ra công ty riêng mang tên Cray Research. Sau này Cray Research đổi tên thành Cray Inc. và đây là một trong những hãng cung cấp siêu máy tính hàng đầu thế giới ở thời điểm hiện tại.

Tại công ty riêng của mình, vào năm 1976, Cray đã công bố chiếc supercomputer Cray-1 vớiCPU 80MHz và nó là một trong những siêu máy tính được người ta biết đến nhiều nhất. Tới năm 1985, Cray-2 ra mắt với 8 vi xử lí. Hệ thống này được làm mát bằng chất lỏng và chất flourinert do 3M sản xuất. Cỗ máy này có tốc độ tính toán 1,9 gigaflops và nó chính là siêu máy tính nhanh nhết thế giới đến tận những năm 1990.

EPFL_CRAY-I_1_clean
Siêu máy tính Cray-1 với thiết kế hình trụ, đảm bảo khoảng cách giữa vi xử lí với các thành phần khác trong hệ thống là đều nhau

Nếu như những chiếc siêu máy tính của năm 1980 chỉ dùng vài CPU thì đến năm 1990, siêu máy tính đã được trang bị hàng nghìn bộ vi xử lí và chúng bắt đầu xuất hiện nhiều ở Mỹ, Nhật. Kể từ đây, tốc độ tính toán của loại máy tính này bắt đầu tăng vọt một cách nhanh chóng. Ví dụ như chiếc siêu máy tính dùng trong hầm gió của Fujitsu sử dụng 166 vi xử lí vector* với tốc độ 1,7 gigaflops mỗi chip vào năm 1994. Hai năm sau đó, đến lượt máy Hitachi SR2201 với tốc độ 600 gigaflops có được nhờ 2048 bộ xử lí cũng đã làm cho cả thế giới kinh ngạc. Intel cũng có siêu máy tính Paragon của mình với khoảng 1000 đến 4000 chip i860 và nó từng đạt danh hiệu nhanh nhất thế giới vào năm 1993.

*Vi xử lí vector là CPU được tích hợp các bộ chỉ dẫn đặc biệt để có thể hoạt động trong mảng dữ liệu 1 chiều. CPU vector có thể tăng đáng kể hiệu năng ở một số tác vụ nhất định, đặc biệt là trong lĩnh vực giả lập số hoặc và thực thi các tác vụ giống nhau. CPU vector phổ biến trong những năm 1970-1980 nhưng ngày nay nó đã gần như biến mất hoàn toàn.

Đến ngày hôm nay, siêu máy tính dần xuất hiện nhiều hơn và nó cũng có mặt trên nhiều quốc gia hơn. Hệ điều hành, kiến trúc cũng như phần cứng dùng trong siêu máy tính cũng theo đó thay đổi rất nhiều so với vài chục năm trước.

Titan_supercomputer
Một số tủ thuộc Titan, siêu máy tính mạnh nhất tính đến thời điểm viết bài này

Kiến trúc và phần cứng siêu máy tính

A. Kiến trúc
Cách thức người ta thiết kế siêu máy tính đã thay đổi rất nhiều trong thời gian gần đây. Những chiếc supercomputer thuở đầu của Seymour Cray hoạt động dựa trên kĩ thuật tính toán song song và thiết kế nhỏ gọn để có thể đạt được hiệu năng tính toán cao.

Nói thêm về điện toán song song (parellel computing), đây là khái niệm dùng để chỉ việc sử dụng một số lượng lớn CPU để thực hiện một bộ các phép tính nào đó. Tất cả các phép tính sẽ được thực thi song song nhau. Có hai cách mà người ta thường áp dụng:

1. Sử dụng một mạng lưới nhiều máy tính phân tán ở nhiều nơi để xử lí số liệu (grid computing), và phân tán ở đây có nghĩa là khoảng cách địa lý của chúng tương đối xa nhau. Thường thì khi một chiếc máy tính trong mạng lưới được chạy lên, nó sẽ ngay lập tức trở thành một phần của hệ thống tính toán song song, và càng nhiều máy tính tham gia thì tốc độ xử lí sẽ nhanh hơn. Có một máy chính (Control Node) nằm ở giữa làm nhiệm vụ điều khiển và phân bổ tác vụ cho các máy con. Còn có hai cách nhỏ thuộc dạng này, chúng ta sẽ tìm hiểu thêm ở bên dưới.

grid-computing-1

2. Sử dụng một lượng lớn CPU đặt gần nhau, và người ta gọi đây là computer cluster và đây là kiểu điện toán tập trung. Những CPU này thường nằm trong nhiều máy tính giống nhau, lân cận nhau (gọi là các node, node card hay computer node) và chúng được kết nối nhằm tạo ra một hệ thống lớn hơn, hoàn chỉnh hơn. Người ta xem cả hệ thống như một siêu máy tính duy nhất. Với biện pháp này, các nhà thiết kế cần đảm bảo rằng tốc độ cũng như tính linh hoạt nội liên kết giữa các máy tính phải đủ đáp ứng yêu cầu công việc. Theo số liệu từ TOP500, số siêu máy tính cluster hiện chiếm đến 82,2% thị phần siêu máy tính toàn cầu. Siêu máy tính IBM Blue Gene/Q sử dụng dạng cluster.

cluster_kien_truc
Từ các vi xử lí, các nhà sản xuất/cung ứng siêu máy tính sẽ tích hợp nó lên một chiếc "computer card" với RAM và có thể có thêm nhiều linh kiện khác để tạo ra một chiếc máy tính gần hoàn chỉnh. Nhiều computer card gắn vào một khay, sau đó các khay lại tiếp được bỏ trong những tủ chứa (rack). Nhiều rack sẽ cấu thành một hệ thống siêu máy tính hoàn chỉnh

Ngoài ra còn có siêu máy tính dạng Massively Parallel Processors (MPP), tức là một máy tính bự nhưng có hàng nghìn CPU và thanh RAM trong đó. Chúng được nối với nhau theo một chuẩn mạng đặc biệt tốc độ siêu cao chứ không xài các thứ phổ thông như cluster. Ngoài ra, mỗi CPU sẽ có bộ nhớ riêng của nó và một bản sao hệ điều hành/ứng dụng riêng. MPP hiện chiếm 17,8% thị phần siêu máy tính, theo TOP500. Siêu máy tính IBM Blue Gene/L (đứng thứ 5 thế giới vào năm 2009) được thiết kế dạng MPP.

MPP


B. Phần cứng
Như đã nói ở trên, vào những năm 1970 thì siêu máy tính chỉ dùng một số ít bộ xử mà thôi. Nhưng đến những năm 1990, số CPU của nó đã lên đến hàng nghìn và ở thời điểm hiện tại, số CPU vài chục nghìn là chuyện hết sức bình thường đối với một siêu máy tính.

Ở các siêu máy tính dạng cluster, người ta thường ghép nhiều "nút" (node) nhỏ lại với nhau để tạo ra một hệ thống lớn như hình bạn đã thấy ở ngay bên trên. Mỗi một nút như thế có thể xem là một chiếc máy tính gần như hoàn chỉnh với một hoặc nhiều CPU, GPU, nhiều thanh RAM, quạt tản nhiệt và một số thành phần khác nữa. Các nút sẽ được kết nối với nhau theo nhiều cách, có thể là dùng cáp đồng bình thường, cũng có thể là chuyển sang dùng cáp quang để đảm bảo băng thông tốt hơn. Sức mạnh của siêu máy tính sẽ là sức mạnh tổng hợp từ tất cả các node lại với nhau.

Ketnoi
Kết nối dây nhợ trong siêu máy tính Titan

Trong các hệ thống siêu máy tính, người ta cũng cần đến ổ lưu trữ, và các ổ HDD, SSD này không nằm trong máy (device attached storage - DAS) như trên PC. Thay vào đó, chúng thường được bố trí trong một tủ riêng (storage area network - SAN), có kết nối mạng riêng và dung lượng cũng rất "khủng".

Giờ đây, ngoài CPU đơn thuần, người ta còn sử dụng thêm các GPGPU (general purpose graphic processor unit) để tăng cường sức mạnh cho siêu máy tính. Từ trước đến nay chúng ta biết GPU được sử dụng để dựng hình ảnh, xử lí những thứ liên quan đến đồ họa, nhưng ngoài ra chúng còn có thể xử lí số liệu và làm một số công việc tương tự như CPU. Hiện nay giá thành của các GPGPU đã giảm, hiệu suất lại tăng cao nên ngày càng nhiều siêu máy tính "nhờ vả" vào linh kiện này để tăng sức mạnh nhưng vẫn đảm bảo chi phí không bị đội lên quá nhiều. Siêu máy tính mạnh nhất thế giới (tính đến 23/5/2013) mang tên Titan đặt ở Mỹ cũng dùng 18.688 GPU NVIDIA Tesla K20 bên cạnh 18.688 CPU AMD Opteron 16 nhân, như vậy tổng số nhân CPU của máy là 299.008, một con số khổng lồ so với máy tính chỉ 2 hay 4 nhân.

Titan_computercard
Một node của siêu máy tính Titan, trong này có 4 CPU AMD Opteron 16 nhân và 4 GPU NVIDIA Tesla K20 (kiến trúc xây dựng là Kepler). RAM mỗi node là 32GB, cộng với 6GB bộ nhớ GDDR5 của card đồ họa nữa. Tổng cộng có 710 Terabyte bộ nhớ trong Titan.


Thực chất việc sử dụng GPGPU để tăng cường cho CPU vẫn còn là một vấn đề đang được các nhà khoa học bàn cãi. Nhiều người cho rằng việc bổ sung GPGPU đúng là có giúp siêu máy tính trở nên mạnh hơn và ghi được điểm benchmark cao hơn, tuy nhiên khi đưa vào thực tế thì người ta phải bỏ rất rất nhiều công sức tính chỉnh phần mềm để có thể vắt sạch sức mạnh của kiến trúc kết hợp này.

cray_xe6_xk6_schematic 
Cấu trúc của hãng Cray dùng trong Titan là sự kết hợp của cả hai loại Cray XK6 và XE6, trong đó XK6 có hai card NVIDIA đi kèm với RAM bên cạnh CPU AMD Opteron 64


Châu Âu cũng đang phát triển một dự án siêu máy tính dùng CPU Tegra 3 v2 GPU GeForce. Cụ thể, cỗ máy này xử dụng 256 bộ vi xử lí bốn nhân NVIDIA Tegra 3, 256 bộ xử lí đồ họa GeForce 520MX và 1TB bộ nhớ RAM DDR3 để hoạt động. Với cấu hình như thế này, máy có thể tính được 38 teraflops trong một giây nhưng chỉ tốn 1W điện cho mỗi 7,5 gigaflops. NVIDIA gọi đây là siêu máy tính đầu tiên sử dụng CPU của ARM kết hợp với GPU của hãng. Dự án nghiên cứu, hợp tác xây dựng siêu máy tính ở Châu Âu mang tên Mont-Blanc hứa hẹn sản phẩm này sẽ hoạt động với hiệu suất cao hơn từ bốn đến mười lần các đối thủ siêu máy tính khác vào năm 2014.
CUDA-ARM-Development-Kit

So_Do_PRACE

Tản nhiệt, tiêu thụ năng lượng

Qua nhiều thập kỉ, một trong những vấn đề chính với siêu máy tính dạng tập trung đó là việc tiêu thụ năng lượng và tản nhiệt. Mỗi một chiếc siêu máy tính ăn một lượng điển khổng lồ, và phần lớn trong số đó bị chuyển hóa thành nhiệt năng. Khi hệ thống bị quá nhiệt có thể khiến hiệu suất giảm đi trầm trọng, tuổi thọ các linh kiện cũng bị rút ngắn đáng kể. Các nhà khoa học đã nghiên cứu nhiều phương án để giải quyết vấn đề này, chẳng hạn như bơm chất làm mát Flourinert, làm mát bằng chất lỏng, bằng không khí, bằng hệ thống lai giữa chất lỏng với không khí. Đặc biệt hệ thống lai này được sử dụng phổ biến trong các siêu máy tính được cấu thành từ nhiều tủ chứa. Ngoài ra, một số siêu máy tính còn sử dụng vi xử lí năng lượng thấp để đương đầu với vấn đề nhiệt độ cao như chiếc Blue Gene của IBM. Chiếc IBM Aquasar còn đặc biệt hơn nữa khi nó sử dụng nước nóng để tản nhiệt và dòng nước đó cũng được dùng để làm ấm cho cả tòa nhà trong mùa lạnh.

he_thong_lam_mat_titan
Hệ thống tản nhiệt bằng nước của Titan

Nói thêm về lượng điện sử dụng bởi supercomputer, chúng ta có thể lấy dí dụ như chiếc Tianhe-1A của Trung Quốc có công suất 4,04 megawatt, tức là cơ quan chủ quản phải chi ra 400 USD/giờ cho tiện điện và tính cả năm là 3,5 triệu USD. Do đó, vấn đề chi phí khi vận hàng siêu máy tính cũng là một bài toán phức tạp.

Để đo hiệu suất sử dụng năng lượng của siêu máy tính, người ta sử dụng con số FLOPS trên Watt và chỉ số này càng cao càng tốt, tức là với mỗi Watt điện thì siêu máy tính tính toán được nhiều phép tính hơn. Năm 2008, chiếc Roadrunner của IBM đạt 376 MFLOPS/W. Năm 2010, chiếc Blue Gene/Q đạt 1684 MFLOPS/W. Năm 2011, chiếc Blue Gene đặt tại New York thì đạt 2097 MFLOPS/W. Còn FLOPS là gì thì mình sẽ nói đến ở phần bên dưới.

Hệ điều hành

Từ đầu thế kỉ 20, hệ điều hành sử dụng trong siêu máy tính cũng đã ghi nhận nhiều sự chuyển biến, tương tự như cách mà kiến trúc supercomputer thay đổi. Những OS đầu tiên được tùy chỉnh cho từng siêu máy tính một để tăng tốc độ, tuy nhiên điều đó rất tốn thời gian, công sức và tiền bạc. Do đó, trong xu hướng hiện nay, người ra sẽ dùng những OS chung như Linux cho siêu máy tính chứ không còn xài UNIX như những năm 90 nữa. Bạn có thể nhìn vào biểu đồ ngay bên dưới là thấy ngay xu hướng chuyển dịch này.

Operating_systems_used_on_top_500_supercomputerssvg

Trong số 500 siêu máy tính nhanh nhất thế giới, Linux là hệ điều hành chiếm số lượng lớn nhất và việc áp dụng OS nguồn mở này ngày càng được ưa chuộng. Ở thời điểm viết bài, Linux đang chiếm đến 93,8% thị phần siêu máy tính. UNIX cũng là hệ điều hành được sử dụng trên nhiều siêu máy tính nhưng không phổ biến như Linux và nó đang nắm trong tay 4% thị phần. Windows và BSD cũng có mặt, tuy nhiên số lượng không đáng kể bởi chúng không đáng tin cậy như Linux và UNIX, ngoài ra còn có ảnh hưởng bởi chi phí bản quyền nữa. OS X của Apple trước đây từng được dùng cho siêu máy tính nhưng chủ yếu là trong các supercomputer dạng phân tán.

Công cụ phần mềm

Vì kiến trúc tính toán song song của siêu máy tính, người ta thường phải áp dụng các kĩ thuật lập trình đặc biệt để khai thác hết sức mạnh của nó. Những công cụ dùng cho việc này là các hàm API như MPI, PVM, VTL, ngoài ra còn có các giải pháp phần mềm nguồn mở như EBowulf. Trong hầu hết các trường hợp, môi trường PVM và MPI sẽ dùng cho các hệ thống dạng cluster, còn OpenMP dùng cho hệ thống có bộ nhớ chia sẻ. Các thuật toán cũng cần được tối ưu hóa rất nhiều bởi vì siêu máy tính không chỉ chạy trên một mà trên rất rất nhiều CPU, GPU, chưa kể là từng tủ siêu máy tính lại nằm riêng với nhau. Các nhà khoa học cũng phải tính tới việc giảm thiểu đến mức thấp nhất có thể thời gian rỗi của CPU khi đợi dữ liệu từ node khác chuyển sang. Với các siêu máy tính dùng GPGPU, người ta có thêm các mô hình CUDA của NVIDIA để tăng cường hiệu suất máy.

Siêu máy tính phân tán

Nãy giờ chúng ta nói hơi nhiều về siêu máy tính tập trung rồi, giờ thì quay sang siêu máy tính phân tán một chút nhé. Ở dạng phân tán, có hai cách thức để tận dụng nhiều máy tính nhỏ, đó là Phương pháp cơ hội (opportunistic) và Phương pháp cận cơ hội (quasi-opportunistic).

A. Phương pháp cơ hội

Đây là một dạng của điện toán grid. Trong phương pháp này, một số lượng lớn máy tính riêng lẻ sẽ tình nguyện phối hợp cùng nhau thành một mạng lưới lớn để thực thi các tác vụ tính toán cũng khổng lồ không kém. Grid computing đã từng giải quyết được nhiều vấn đề cần đến điện toán song song, nhưng nó cũng có hạn chế là không tính được một số tác vụ cổ điển như mô phỏng dòng chảy.

Mạng lưới siêu máy tính nhanh nhất tính đến tháng 3/2012 đó là Folding@Home (do đại học Standford phát triển). Nó có sức mạnh 8,1 petaflops và sử dụng các vi xử lí x86. Trong số đó, 5,8 petaflops được "cống hiến" từ các máy tính với nhiều loại GPU khác nhau, 1,7 petaflops thì đến từ các máy chơi game PlayStation 3, số còn lại là do nhiều CPU đóng góp. Hồi năm 2011, thế giới có grid BOINC với sức mạnh 5,5 petaflops góp từ 480.000 máy tính. Còn trong năm ngoái, Simon Cox đã làm ra một chiếc siêu máy tính với 64 chiếc Raspberry Pi's. Hệ thống này mang tên Iridis-Pi và có chi phí chỉ 2500 Bảng Anh và có bộ nhớ 1TB (16GB thẻ SD cho mỗi chiếc Raspberry Pi).

B. Phương pháp cận cơ hội

Điện toán quasi-opportunistic cũng tương tự như điện toán opportunistic, tuy nhiên nó có chất lượng dịch vụ cao hơn nhờ việc tăng cường kiểm soát các tác vụ mà mỗi máy đơn lẻ sẽ làm. Nó cũng điều khiển chặt chẽ quá trình sử dụng tài nguyên phân tán. Kèm theo đó còn có một hệ thống thông minh giúp đảm bảo mức độ hiện diện cũng như mức độ ổn định của các máy thành viên. Để phương pháp cận cơ hội phát huy hiệu quả, các máy tính sẽ cần phải có một "hợp đồng phân bổ tài nguyên" kết hợp với nhiều hình thức liên lạc, chống lỗi phức tạp.

Đo đạc hiệu năng

A. Khả năng vs Dung lượng

Siêu máy tính được thiết kế để nhắm việc tính toán các phép tính phức tạp, tức là capability computing. Điều này có nghĩa là siêu máy tính được sử dụng để đưa khả năng tính toán lên mức tối đa, từ đó giải quyết một vấn đề trong thời gian ngắn nhất có thể. Các phép tính này rất đặc biệt và nó khó đến nỗi những máy tính bình thường không thể đảm đương được, ví dụ mô phỏng vụ nổ hạt nhân, dự báo thời tiết, nghiên cứu lượng tử...

Còn nếu muốn xử lí một dung lượng lớn dữ liệu, người ta không dùng supercomputer mà dùng một loại máy tính gọi là mainframe. Mainframe có thể đảm được dữ liệu đầu vào khổng lồ nhưng các phép tính mà nó chạy không phức tạp như siêu máy tính. Mainframe có thể dùng để giải quyết nhiều vấn đề nhỏ cùng lúc. Chúng ta sẽ có một bài về mainframe riêng, hẹn các bạn khi đó để nói thêm về loại máy tính này.

B. Đo đạc hiệu năng siêu máy tính

Nếu như ở PC, laptop, tablet, smartphone người ta sẽ tiến hành benchmark để biết được sức mạnh của máy thì trên siêu máy tính cũng y như thế. Tuy nhiên, khả năng tính toán của siêu máy tính được đo bằng FLOPS (FLoating Point Operations Per Second - phép tính dấu chấm động thực hiện trong mỗi giây), trong khi máy tính bình thường thì đo bằng MIPS (instructions per second - số chỉ dẫn được thực hiện trong mỗi giây). FLOPS có thể được thêm một số tiếp đầu ngữ trong hệ đo lường SI như tera- (TFLOPS, tức 10^12 FLOPS, đọc là teraflops), peta (10^15 FLOPS).

Hiện nay các siêu máy tính hàng đầu thế giới đều đã bước sang ngưỡng Petaflops, ví dụ như chiếc IBM Roadrunner năm 2008 là 1,105 Petaflops, Fujitsu K năm 2011 đạt mức 10,51 Petaflops, còn chiếc Cray Titan mạnh nhất hiện nay là 17.59 Petaflops. Người ta dự đoán là chỉ sau khoảng 10 năm nữa, siêu máy tính sẽ sớm bước sang hàng Exaflops (10^18 FLOPS) vì công nghệ của CPU và GPGPU đang tăng trưởng vượt bậc, giá thành lại rẻ đi và hiệu năng tiêu thụ điện ngày càng được nâng cao.

Vậy những con số FLOPS ở đâu ra? Nó được đo bằng một phần mềm tên là Linpack. Tuy nhiên cũng cần phải nói thêm rằng không một con số đứng riêng lẻ nào có thể phản ánh toàn bộ hiệu năng của máy tính nói chung và siêu máy tính nói riêng. Có hai con số được thể hiện khi nói tới siêu máy tính: hiệu năng tính toán dấu chấm động lý thuyết của vi xử lí (kí hiệu Rpeak) và hiệu năng xử lí đầu vào (Rmax). Rpeak gần như không thể nào đạt được trong đời thực, trong khi Rmax là hoàn toàn có thể đạt đến khi siêu máy tính chạy. Tất cả những con số FLOPS bạn thấy ở trên đều là Rmax.

C. Danh sách TOP500

Kể từ năm 1993, những siêu máy tính nhanh nhất thế giới được liệt kê vào một danh sách gọi là TOP500 dựa theo điểm số benchmark của nó. TOP500 có trang web riêng của họ ở địa chỉhttp://top500.org và nó cung cấp cho chúng ta rất nhiều thông tin hữu ích. Bên cạnh việc xem danh sách những supercomputer hàng đầu thế giới, bạn có thể xem thống kê về việc phân bổ hệ điều hành trong thế giới siêu máy tính như thế nào, số lượng siêu máy tính mỗi nước, kiến trúc siêu máy tính (MPP hay cluster)… Thực chất thì danh sách này không hề được đánh giá là chính xác tuyệt đối và không thiên vị, tuy nhiên nó là một trong những nguồn phổ biến nhất mà người ta thường lấy khi so sánh sức mạnh siêu máy tính ở một thời điểm nào đó.

Tên các siêu máy tính mạnh nhất thế giới từ năm 2008 đến nay theo TOP500
thu_hang_sieu_may_tinh

Ứng dụng của siêu máy tính

Một số ứng dụng của siêu máy tính trong thời buổi hiện nay:
  • Dự báo thời tiết, nghiên cứu khí động học, nghiên cứu sự biến đổi khí hậu, mô phỏng động đất
  • Phân tích xác suất, dựng mô hình phóng xạ
  • Mô phỏng vụ nổ hạt nhân trong không gian 3D
  • Lượng tử học, phân tử học, sinh học tế bào, nghiên cứu sự gấp khúc của protein
  • Mô phỏng não người
  • Nghiên cứu và dựng mô hình của các hiện tượng vật lý
  • Nghiên cứu và mô phỏng trí tuệ nhân tạo
  • Tái tạo vụ nổ Bigbang (do siêu máy tính ở trung tâm Texas Advanced Computing Center thực hiện), nghiên cứu về vật chất tối
  • Nghiên cứu thiên văn học
  • Dựng mô hình lây lan của dịch bệnh
  • Chơi cờ vua! (siêu máy tính Deep Blue của IBM từng đánh bại đại kiện tướng Garry Kasparov vào năm 1997)
NOAA_Supercomputer
Ảnh mô phỏng do siêu máy tính của Cơ quan Khí tượng và Hải dương Mỹ (NOAA) dựng ra bằng siêu máy tính của họ


Một số hãng sản xuất và cung cấp siêu máy tính


Bạn có thể thấy là IBM, HP và Cray là ba công ty dẫn đầu trên lĩnh vực siêu máy tính hiện nay. Dell, Intel, NEC, Lenovo, Acer, Fujitsu, Oracle cũng có tham gia vào lĩnh vực này.
Sieu_may_tinh_nha_cung_cap



Các nước có siêu máy tính


cac_nuoc_co_sieu_may_tinh


Nguồn: Wikipedia (1), (2), (3), TOP500NOAA

(Theo Tinh Tế)