Początek nowej ery: Najpotężniejszy komputer opracowano w… Chinach

Początek nowej ery: Najpotężniejszy komputer opracowano w… Chinach
Kończy się era, w której największą światową potęgą były Stany Zjednoczone. Chińczycy opracowali komputer Tianhe-1A, który "zamienia w pył" dotychczasowy najszybszy superkomputer.

Takie informacje podał Jack DongarraUniwersytetu Tennessee, który który zajmuje się rankingiem 500 najpotężniejszych superkomputerów na świecie. §

Jego zdaniem opracowany przez Chińczyków komputer Tianhe-1A, bazujący na „tysiącach” połączonych ze sobą procesorów „zamienia w pył” dotychczasowych liderów zestawienia. Co ciekawe procesory te wyprodukowane zostały przez firmy amerykańskie – Intela Nvidię – ale tajemnicą wydajności maszyny, jest technologia ich połączenia, opracowana w Chinach.

Pełna specyfikacja superkomputera nie jest jeszcze znana, ale naukowcy z Narodowego Uniwersytetu Technologii Obronnej Changsha, którzy opracowali tę maszynę, ujawnią ją być może nawet dzisiaj, na specjalnej konferencji prasowej w Pekinie. Sam komputer stoi natomiast w ośrodku badawczym w Tianjin, gdzie wykonuje „dwa i pół razy 10 do piętnastej potęgi operacji matematycznych na sekundę”.

My oczywiście możemy zastanawiać się, czy taka maszyna poradziłaby sobie z Crysisem, ale tak naprawdę to sprawa dużo poważniejsza. Najlepiej wyraził ją Wu-Chang Feng, mimo nazwiska Amerykanin, z politechniki stanu Virginia. Mówi:
„To, co jest przerażające, to fakt, że dominacja Stanów Zjednoczonych w dziedzinie wysokowydajnych komputerów została zagrożona. To poważny cios w ekonomiczną przyszłość naszego kraju”.

56 odpowiedzi do “Początek nowej ery: Najpotężniejszy komputer opracowano w… Chinach”

  1. Kończy się era, w której największą światową potęgą były Stany Zjednoczone. Chińczycy opracowali komputer Tianhe-1A, który „zamienia w pył” dotychczasowy najszybszy superkomputer.

  2. Hm… ciekawe za ile lat, będziemy się z tego newsa śmiać..

  3. Ciekawe kiedy się zepsuje, jak to ma w nawyku wiele produktów z Chin 😛

  4. nihilus zapewne za 10 kiedy komorki beda mialy wieksza moc obliczeniowa xd

  5. To dlatego ze uzywaja 4x wydajniejszych prockow RISC. Nikt takich nie uzywa, bo windows na nich nie dziala. Dlatego wlasnie m$ to zlo – opoznia rozwoj informatyki.

  6. ” To poważny cios w ekonomiczną przyszłość naszego kraju” XD trzeba było nie przenosić produkcji WSZYSTKIEGO do Chin. Mamoo, a co to są konsekwencjeee?

  7. Tak w zasadzie to wszystko obecnie jest produkowane w Chinach, nawet te Intele i Nvidie.

  8. „Tennessee, który który zajmuje” nie za dużo tu tych których ? 🙂

  9. „My oczywiście możemy zastanawiać się, czy taka maszyna poradziłaby sobie z Crysisem”|hahahaha to bylo dobre…

  10. Chińczycy za dużo umieją… Jeśli myślisz że jesteś w czymś dobry to okaże sie że jakiś mały chinczyk robi to 2 razy szybciej 2 razy lepiej i 2 razy taniej

  11. @Asmageddon, ogólnie to większość programistów na świecie nie używa RISC. Powodem jest to, że trzeba by zmienić całe języki programowania, i algorytmikę by wykorzystać ich potencjał. Badania „dalej trwają”, ale wątpię by w najbliższym czasie z cywilnych maszyn zniknęły procesory CISC. A super komputery najnowszych generacji mają wykorzystywać już głównie potencjał GPU, ew APU.

  12. A dziala na tych prockach linux. 😀

  13. BTW, zapoznaj się nieco z budową procesorów INTELa a nieco się zdziwisz. 😛

  14. Jest linux na riscy, jest gcc. Nic nie trzeba zmieniac. Jak co dobrze napisane to jest latwo przenosne.

  15. Wiesz, działać a wykorzystywać efektywnie to duża różnica. Z tego co wiem to Solaris’y są bardzo blisko efektywnego wykorzystywania architektury RISC.

  16. Linux wszystko wykorzystuje efektywnie. Inaczej androida by nikt nie robil na linuksie.

  17. @Asmageddon, point 4 U. Aczkolwiek nie do końca się z tobą zgodzę. To co dla większości jest efektywne, dla małej grupy ludzi będzie to mało. |Program napisany w języku kompatybilnym z CISC nie będzie w stanie wykorzystać potencjału RSIC. Za duże różnice w budowie. Może działać, Tak jak stare gry na nowych systemach. Na pewno szybciej, na pewno wydajniej, ale nie obejdzie się bez błędów. Można je zniwelować przez optymalizację.

  18. @Asmageddon „Nic nie trzeba zmieniac. Jak co dobrze napisane to jest latwo przenosne.” Więc czemu w czasie konwersji z PC na konsolę (ew. druga strona), programiści muszą pisać niemal wszystko na nowo??

  19. Uła. No to niewiele Chinom brakuje, by przegonić USA.

  20. @mrowczak bo nie byly pisane z mysla o wieloplatformowosci, na inne kontrolery, z uzyciem innych bibliotek. A kompilacja to tylko tlumaczenie kodu na instrukcje dla cpu, wiec jak dziala to dziala dobrze

  21. Swoja droga loongson ma tryb emulacji ciscow, wiec jak ktos przeportuje wine to crysis pojdzie 😀

  22. @Asmageddon, nie chcę się spierać bo to nie miejsce na to. Jakbyś chciał dalej polemizować to mail, PW albo komunikator… 😀

  23. To wina faktu,ze inne firmy nie chca zepsuc obslugi windowsow, co naklada potezne ograniczeni. Anyway, linux ftw. 😀

  24. A nie pomyślałeś, że jeśli przenoszenie programów z architektury CISC na RISC, to już dawno Microsoft i wielu innych przeszli by na ten typ procesora? 🙂 Dla nich to byłby ogromny zysk, A jak na razie to dopiero MIDORI, zapowiada się na w pełni kompatybilny z RISC. BTW, również uważam, że to LINUX powinien zdobyć świat.

  25. Sorry, ale Crysis działa w full detalach nawet na moim kompie, a grafika już nie powala tak jak kilka lat temu.

  26. Ciekawe kiedy go z minimalizują żeby się zmieścił na biurku.

  27. Windows uzywa instrukcji assemblerowych specyficznych dla ciscow, wiec to nie takie proste w tym wypadku

  28. Poza tym, dotad nikt nie robil dobrych riscow. Dlatego zreszta apple przeszlo na cisc.

  29. Ale internetu brak 😀

  30. Za 3 do 5 lat taką moc będzie miał długopis, o komputerach nie wspomnę.

  31. Ja chcę mieć zeszyt z kartą graficzną o mocy 10 GB!!! 😀

  32. asassyn09 dzieki ze mnie oświeciłeś że moc obliczeniową mierzy się w gigabajtach….

  33. @Skipperos|Taka maszyna musi mieć tyle pamięci dyskowej, że internet to ona ma na sobie…

  34. tylko po jakiego wuja komóś taka moc?

  35. @BlackRabbitpl – Do bardzo, bardzo dużo rzeczy. Pierwszy przykład jaki mi wypadł do głowy, to symulowanie wybuchów jądrowych, przewidywanie pogody itp.

  36. @Bronek|Eee, dzisiaj nie bombami,a gospodarką się walczy, taki komputer może przeliczać naraz miliony jeśli nie miliardy parametrów, tworzyć najbardziej sensowne prognozy gospodarcze, sprzedaż popytu, wyczerpanie surowców i wpływ na ceny itd. Mówić po prostu w co inwestować, jak rozwijać gospodarkę, to taka wróżka XIIw, która z setek tysięcy małych kawałeczków i obliczeń składa pełny obraz.

  37. oczywiście chodziło mi o spadek popytu/ sprzedaży*

  38. @BlackRabbitpl chyba nie myślałeś, że oni na tym kompie będą grać. Swoją drogą ciekawe ile ten potwór żre prądu na maksymalnym obciążeniu.

  39. Ciekawe. A tak na marginesie, nVidia to na pewno amerykańska firma?

  40. @Sergi – z tego, co mi wiadomo, to tak. Przy dzisiejszej globalizacji wszystkiego to bym sie jednak nie zdziwil jakby nVidia nalezala do jakiegos Chinczyka.

  41. @Tokagero taa i co jeszcze?

  42. ale visty nie uciągnie ;/

  43. Made in China

  44. no i po co te wypas kompy jak sie bedą marnować, bo nikt na nich nie pogra.. ahh pomyśleć za takie cudo starczyłoby na jakieś 7 lat grania w najnowsze hity na full detalach ;]

  45. Dolkacz: Taki komp to i za 20 lat byłby na wszystkie gry na full detalach 😀

  46. @Blackmagic – no nie specjalnie, bo to nie jest komp który służy do gier więc nie ma wypas karty graficznej 😛

  47. Tylko najpierw trzeba by napisać go tak, żeby mógł to odpalić, bo architektura jest deczko inna 😉

  48. Sergi: Ale z taką mocą… można by normalnie wszystko! ;D

  49. A np. PS3? Też z lekka inna architektura;) Tyle że jakoś nie wyobrażam sobie żeby ktoś miał tyle kasy i mejsca, żeby taki komp kupić… marzenia ;D

  50. @Dolkacz – taki Komp by ci starczył do połowy życia. Puki tego nie dadzą na masową produkcję, można pomarzyć o takim czymś przez długie kilkanaście lat. To jest Technologia Naukowo/Wojskowa więc dla zwykłych ludzi to nie stworzono – nawet mogę przypuszczać że przez pól wieku tego nie udostępnią.|A co do jakości grafy w grach to dla mnie ona już się zatrzymała w 2007 i od tamtej pory bardzo powoli się rozwija, tylko jakieś nowe bajery wchodzą 3D, DX11, itp. zmiany nijakie a wymagania rosną.

Dodaj komentarz