See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
スーパーコンピュータ技術史 - Wikipedia

スーパーコンピュータ技術史

出典: フリー百科事典『ウィキペディア(Wikipedia)』

スーパーコンピュータ技術史とは、スーパーコンピュータ(HPC)の誕生から現在に至るまでの技術的 な歴史の事。

本項は技術史として、普遍的視線にて技術論及び、その系譜を中心に追っていく。 なお、スーパーコンピュータの産業面の歴史に関しては、スーパーコンピュータ産業史を参照のこと。

目次

[編集] 歴代HPCの性能表

以下に示すHPCは、研究所設置のものを除いて商用機である。よって、一部には最大構成での性能も含まれる。なお、機種名の後に記載されている「/」以下の数値は、PE(プロセッサ・エレメント)の数である。ここにおける記載に関しては、PEはベクトル型、スカラー型を区別しない。例外は、日本電気のSX-3である。これに関しては、44がベクトルパイプラインの本数を表し、Rはリリースという意味である。

日付け ベンダ&名称 実効性能 プロセッサ 技術的注目点 設置場所
1941年 Zuse Z3 1.4FLOPS 独自開発 浮動小数点専用機。 ドイツ航空研究所(現:ドイツ航空宇宙センター),ベルリン,ドイツ
1941年 ABC 30OPS 独自開発 真空管計算機。連立方程式専用計算機。 アイオワ州立大学,アイオワ,アメリカ
1944年 Colossus 5kOPS 独自開発 暗号解読専用計算機。第二次世界大戦時ナチスの用いていた暗号を解読するために、数学者によって考案され、多くの技術者を国家動員することによって生まれた計算機。 ブレッチレイ・パーク,イングランド,イギリス
1946年 ENIAC 50 kOPS 独自開発 真空管によるパッチ式計算機。この後、時代は開いてしまうが、途中科学技術計算に特化した計算機が、UNIVAC(後にスペリーランドと合併し、さらにバロースと合併しUnisysとなる)やIBM等のベンダーから、科学技術専用機が開発され、実用に供されている。無論、日本でも富士写真光機(現:富士フイルムホールディングス)や東京大学(開発元は、東芝から学内)、大阪大学富士通日立製作所日本電気、日本電信電話公社(現:NTT)、電気試験所(現:産業技術総合研究所)などで、計算機開発が行われ、全てが科学技術計算のために用いられることになった。なお、電気試験所では、当時先進的な取り組みとして、自動翻訳なども研究されていたこともある。その研究の次に、現在の情報交換用符号である、ANSI及びJIS-Xシリーズへと繋がる標準化が行われた。 ペンシルバニア大学,ペンシルバニア,アメリカ
1960年 UNIVAC LARC 独自開発(TTL型) 科学技術計算向けを指向した計算機。当時世界最高速。 ローレンスリバモア国立研究所,カリフォルニア,アメリカ
1961年 IBM 7030 1.2 MIPS 独自開発(TTL型)この後、IBM360シリーズ集積回路型へと進歩し、IBM370型の科学計算専用プロセッサが発表される。 IBMによる初のスーパーコンピュータ。当初4MIPSの性能を予定していたがそれを達成できなかったため、ごく少数しか製作されなかった。 ロスアラモス国立研究所,ニューメキシコ,アメリカ
1964年 CDC 6600 3 MFLOPS 独自開発(TTL型) 浮動小数点演算専用機として開発された。 ローレンスリバモア国立研究所,カリフォルニア,アメリカ
1969年 CDC 7600 36 MFLOPS 独自開発(TTL型) パイプライン演算機構が初めて搭載された計算機。パイプライン演算機構とは、SIMDアーキテクチャと呼ばれるものである。詳しくは、以下参照。
1974年 CDC STAR-100 100 MFLOPS 独自開発(TTL型) CDC社において、シーモア・クレイが最後にチーフアーキテクトをして設計した機種。この後、経営陣と対立することになって、クレイリサーチ社を興すことになる。STARの場合には、それまでの3倍の性能を出すために、内部バスの配線がスター(星)状になっていることに由来する。
1975年 Burroughs ILLIAC IV 150 MFLOPS 独自開発(TTL型)ちなみに、これが小説"2001年宇宙の旅"のHAL-9000のモデルとも言われている。 大規模スカラ計算機の元祖ともいえる計算機。丁度、同じころ東海岸ではDEC社が産声をあげ、PDPの開発が行われていた。この計算機が、現在のパーソナルコンピュータの原型とされている。後に、このプロジェクトから派生した技術が、仮想ベクトル技術や広域グリッドへと繋がっていく。途中、人工知能開発プロジェクト等でも、この機種を参考にしたリダクションシステムやデータフロー等の研究開発が行われており、現在のコンピュータ・アーキテクチャーの集大成ともいえる。 アメリカ航空宇宙局 アーメスリサーチセンタ,カリフォルニア,アメリカ
1976年 Cray-1 250 MFLOPS 独自開発(ECL型) 初めて、ベクトルレジスターを採用した計算機。ハードウエアによる、パイプライン演算機能は、初期モデルでは省略された。よって、初期のCray-1では、ソフトウエアパイプラインという、アセンブリ言語にて擬似パイプラインを実現する必要があった。 ロスアラモス国立研究所,ニューメキシコ,アメリカ
1981年 CDC Cyber 205 400 MFLOPS 独自開発(ECL型) Cyberシリーズは、ベクトルレジスターと同時に、ハードウエア・パイプライン演算機能を搭載していた。FORTRAN言語という高級言語でも、きちんとベクトル最適化が出来る設計になっていたのだが、OSにてタイムシェアリングを提供できなかったため、数台が製造されるに終わった。
1982年 FACOM VP-100 250 MFLOPS 独自開発(ECL型) 国産では最初にベクトルレジスターを採用した計算機。VP-200シリーズ、VP-400シリーズは、名古屋大学京都大学計算流体力学研究所等に納入された。また、この後廉価版のVP-10シリーズなども発表され、大手企業を中心に導入され、国内のベストセラー機になったこともあるようである。 富士通,沼津工場,日本
HITAC S-810 630 MFLOPS 独自開発(ECL型) 大規模ベクトル計算機として開発された計算機であり、メモリー量もGBを超えて搭載できたモデル。最初のモデルは、気象庁及び東京大学に納入された。気象庁では、COSMETS数値予報システムとして稼動し、東京大学大型計算機センターでは、当時の円周率計算速度及び精度の世界記録を塗り替える成果を上げた。 日立製作所,海老名工場,日本
1983年 Cray X-MP/4 941 MFLOPS 独自開発 ベクトルレジスターを複数搭載した計算機。CRAY-1やCRAY-2は、シングルベクトルレジスターで性能を上げるための専用機であったが、X-MPシリーズでは、ベクトルレジスターをコンパクト化して、複数搭載しタイムシェアリングできるようになった機種。UNIX系のOSが採用された機種としても有名。 ロスアラモス国立研究所; ローレンスリバモア国立研究所; バテル記念研究所; ボーイング
NEC SX-1,SX-2 1.2 GFLOPS 独自開発(ECL型) クラスターノードによる接続が可能なベクトル型計算機。クラスターノードとは、地球シミュレータまで続いているが、大型のクロスバー交換機と見れば分かりやすい。各プロセッサを専用の通信ノードにて接続し、計算ジョブやデータを各計算ノード毎に割り振る仕組みのことである。 日本電気, 府中工場,東京
1984年 M-13 2.4 GFLOPS 独自開発(TTL型?) ベクトルレジスターを採用した計算機。一説には、最初の専用機はCray-1のコピーとも言われている。しかし、旧共産圏の国々では集団型プロジェクトマネジメントによって、仮説から理論への実践が行われており。かつまた、高い教育水準によって多くの優秀なエンジニアがいたため十分に可能であったと思う。例をあげておけば、核融合トカマク型)、原子核物理学シンクロトロン)、ロケット開発や航空機開発等において著名な研究者並びに成果を上げている。 モスクワ物理学・技術研究所 コンピュータ部門,モスクワ,ソビエト
1985年 Cray-2/8 3.9 GFLOPS 独自開発 冷却方式をそれまでの空冷から、フロン冷却に変えた計算機。同時に、ベクトルレジスターの容量の拡大が行われ、パイプライン演算機構も、加算及び乗算に加えて、除算及び減算も組み込まれたことによって、シングルプロセッサの能力でもCray-1の数倍の性能に達している機種。この計算機上で、商用の多くの数値解析ソフトウエア及び可視化ツールが開発されたため、自動車メーカや航空機メーカの多くが採用した機種でもある。 ローレンスリバモア国立研究所,カリフォルニア,アメリカ
1989年 ETA10-G/8 10.3 GFLOPS 独自開発(FET 冷却方式として、液体窒素を用いた計算機。CMOS-FETを最初に採用。実効性能が高かったが、メンテナンス面やソフトウエア開発面での不備によって数少ない生産が行われた機種。一部の構成は、東京工業大学に納入されて、研究に用いられた。 フロリダ大,フロリダ,アメリカ
1989年 アンリツ QCDPAX 14 GFLOPS 独自開発マイクロプロセッサ(Vシリーズ?) マイクロプロセッサを大規模並列に搭載した計算機。当時、コンピュータグラフィックス用に開発されたマイクロプロセッサの並列機(東洋リンクスのLinks)などもあり、マイクロプロセッサによる技術的可能性の追求が行われた記念するべきモデル。当時、英国のInmos社では、Transputerと呼ばれるマイクロプロセッサの並列機が発表されており、技術の同時発生が見て取れる。 筑波大学,筑波,日本
1990年 NEC SX-3/44R 23.2 GFLOPS 独自開発 ECL技術による限界となったベクトル型計算機。この機種が原型となって、地球シミュレータ開発が行われることになった。主に、ECLバイポーラ型のトランジスタから、低電圧MOS-FETへの置き換え等が実施された。 日本電気 , 府中NEC6号館, 日本
1993年 シンキングマシンズ CM-5/1024 65.5 GFLOPS マイクロプロセッサ(SPARC データフロー型の計算機であり、かつまた、PEとしてマイクロプロセッサを採用した計算機。この機種以前の、CM-1が1ビットプロセッサ(ASICによって実現された、人工知能計算機)の超大規模並列機であったのに対して、本機ではマイクロプロセッサに変えた点が違いである。なお、源流は1950年代初頭の人工知能研究から始まる。なお、小規模構成のCM-5は、映画「ジェラシックパーク」にも出演している。 ロスアラモス国立研究所; 国家安全保障局,アメリカ
富士通 数値風洞システム(NWT) 124.50 GFLOPS マイクロプロセッサ(Ultra SPARC) PEとして、マイクロプロセッサを採用し、ナビエ-ストークス方程式を効率良く計算できるフレームワークを搭載した計算機(ここにおける、フレームワークとは、OS+コンパイラ+ライブラリ群を統合した開発環境のことである。例を挙げておけば、Smalltalkなどもフレームワークに該当する)。日本で実用化された、分散型の商用スーパーコンピュータ(ここでの定義は、倍精度浮動小数点演算が可能な機種)としては、最初の機種にあたる。この経験を生かして、VPPシリーズへと進歩を遂げたと思う。 航空宇宙技術研究所(現:宇宙航空研究開発機構), 府中市, 日本
インテル Paragon XP/S 140 143.40 GFLOPS マイクロプロセッサ(Pentium マイクロプロセッサの大規模並列機。 サンディア国立研究所, ニューメキシコ,アメリカ
1994年 富士通 数値風洞システム(NWT) 170.40 GFLOPS マイクロプロセッサ(Ultra SPARC) NSシステムのプロセッサを強化(増や)した計算機 航空宇宙技術研究所 (現:宇宙航空研究開発機構), 東京, 日本
1996年 日立 CP-PACS/2048 368.2 GFLOPS マイクロプロセッサ(独自拡張PA-RISC 超並列計算機。超並列型とは、数値風洞システム等でも行われているが、スカラプロセッサ群からなるノードを一つの大きなプロセッサと見立てて、アルゴリズムを分解し、ノード間通信を行いながら演算処理を行う計算機のこと。GRAPEとの違いは、GRAPEが計算ノードを専用化しているのに対して、超並列計算機では汎用プロセッサを用いる点である。 筑波大学, つくば市, 日本
1996年 日立 SR2201/1024 220.4 GFLOPS マイクロプロセッサ(独自拡張PA-RISC) CP-PACSの技術をベースに商用化を行った超並列計算機。 東京大学, 東京,日本
1997年 インテル ASCI Red/9152 1.338 TFLOPS マイクロプロセッサ(Pentium Pro) ASCIとは、Redブック、Greenブック、Blueブックに基づく計算機の設計ガイドラインに基づく計算機(DARPAによって制定)。この機種は、Xeonを最初に採用した超並列機である。OSは、Intel社のUNIXを採用していた[1] サンディア国立研究所, ニューメキシコ,アメリカ
1999年 インテル ASCI Red/9632 2.3796 TFLOPS マイクロプロセッサ (Pentiume Pro)
2000年 IBM ASCI White 7.226 TFLOPS マイクロプロセッサ(PowerPC RGBの全ての要求事項を満たすと、Whiteになる。RS-6000SPの並列機。この機種の源流は、電話交換機用に開発されたRISCプロセッサである。なお、同じような構成で、VAXシリーズを用いた並列機がTRW社で研究開発されていたこともある。[2] ロスアラモス国立研究所, カリフォルニア,アメリカ
2002年 NEC 地球シミュレータ 35.86 TFLOPS 独自開発(ベクトルプロセッサ)このCPUは、SX-6シリーズへ受け継がれる。 超高速・大容量ベクトル型計算機。 海洋研究開発機構, 横浜, 日本
2004年 IBM Blue Gene/L 70.72 TFLOPS マイクロプロセッサ(PowerPC) 仮想ベクトル技術による大規模計算機。スカラ型のPEには、組み込み型CPUFPUを付加することで、非常にコストパフォーマンスの高いシステムとなっている。また、商用機としては、Linuxコアを採用する等、オープンソースの成果を活用した大規模スーパーコンピュータシステムとなっている。 アメリカ合衆国エネルギー省/IBM, USA
2005年 136.8 TFLOPS マイクロプロセッサ(PowerPC) <注>組み込みCPUにFPUを付加したと表現しているようだが、本来は組み込みCPUはFPUへの配線を取り除いたものである。なぜならば、多くのマイクロプロセッサの場合、FPUは回路規模が大きいため、イールド率(収率)が非常に良くない。よって、製造工程でFPUへの配線を取り除いたものを組み込みCPUとして販売している例が多いのである。BlueGeneの場合には、通常のPowerPCにトーラスバス(シリアル)用のバスドライバーを付加したCPUを用いている。 アメリカ合衆国エネルギー省 国家核安全保障局/

ロスアラモス国立研究所,カリフォルニア,アメリカ

280.6 TFLOPS マイクロプロセッサ(PowerPC)

(注)ここに記載されたもの以外にも、数多くの記念するべきスーパーコンピュータシステムは存在した。あくまでも、この年表に記載されているものは、技術的トレンドが明確化されるように配慮されたものである。なお、パーソナルコンピュータの源流は、DEC社(現:HP)のPDPシリーズとPARC(XEROX社)のALTOとされている。

[編集] 科学技術計算への布石 

コンピュータの性能史表から明らかなように、初期においては科学技術計算専用プロセッサとして開発されたもの である。このうち、特に浮動小数点演算に特化し、かつまた高性能な機種群をスーパーコンピュータと呼ぶようになったと思われる。その目的は、電子計算機の歴史からも明らかなように科学技術計算課題の内、大容量かつ高速に行うためのニーズが、常に存在したことがあげられる。

浮動小数点演算のうち、過去に取り組まれた課題としては、円周率及び自然対数等の計算が挙げられる。18世紀から19世紀には、その計算のために数学者達が一生涯をかけて取り組んだ時期さえある。

算盤を始め、計算尺、さらには古代ギリシアにおいて天体観測のために開発されたアストロラーベや、フランスブレーズ・パスカルドイツゴットフリート・ライプニッツらによる歯車式計算機イギリスチャールズ・バベッジが構想した解析機関等は、これらの計算を簡便に行うために設計され、もしくは開発されたものであると思われる。

1900年代に入り、二度に渡る世界大戦が生じた。この二度に渡る世界大戦は国家総力戦という事態にまで発展し、その中で科学技術は戦争の道具として用いられてしまうことになった。その科学技術を発展させるためには、やはり計算能力が重要であり、かつまた正確な計算が求められることになった。

この中で、計算機が進歩を遂げ、スーパーコンピュータ開発が生じたといっても過言ではない。つまり、時代の最前線で最速の計算機をスーパーコンピュータと呼んでいた時代もあるのである。1945年に世界大戦が終結後、拡大する計算機能力は、特に国家のフラグシップ産業である、原子力及び航空宇宙でニーズが高まっていた。日本においては、戦後、光学機器の開発のプロセスにおいて大量の計算を行う必要性によって計算機開発が行われ、その他としては国家主導のプロジェクトや大学内での計算機開発が行われた。また、ヨーロッパでは暗号解読のために計算機開発が行われていた(その他に関しては、コンピュータ史を参照)。

[編集] スーパーコンピュータのシステムとしての確立まで

当初のコンピュータ黎明期において、スーパーコンピュータと称される様になる高性能コンピューティング機能、特に浮動小数点演算機能は、専用計算機としての提供から始まり、1970年代後半からは汎用機や汎用サーバをフロントエンドに使用した、強化演算プロセッサ機能としての提供という流れにあった。

特殊専用計算機として登場した頃、汎用機及びスーパーコンピュータとしての専用計算機のCPUはメモリの一部に使用されていたCMOS型半導体ではなく、設計や製造が難しいが、動作が高速であったバイポーラ型の半導体を使用しており、非常に高価なものであった。

[編集] 黎明期 (1960年代1970年代初頭)

1970年代前半までのILLIAC IIII及びCDC社によるスーパーコンピュータシリーズは、専用計算機機能の提供に終始していた。

特に注目に値するものは、イリノイ大学で始まったILLIACプロジェクトであり、その後のスーパーコンピュータの処理方式に決定的な影響を与えるコンピュータ構想であった。単一のプロセッサの能力では限界があるため、複数のプロセッサを通信でつなぎ、処理を分散して行うという手法によって開発されたシリーズである。この開発者達がスピンオフして起こしたのがCDCであった。

ベクトルプロセッサは、それまでの直線型メモリ(これをレジスターメモリと呼ぶ)をマトリックス型メモリに転換することによって生まれた技術である。具体的には、行列要素の掛け算や足し算を高速におこなうことによって、処理するべきデータを一気に処理してしまう方法である。この手法がSIMDである。MIMDは、コネクションマシン等の設計でおこなわれていたが、処理するべきデータ群を各レジスタ毎に振り分け、各演算要素毎に計算を実行するタイプの計算機である。よって、前者は大量のデータを一気に処理してしまう用途に適しており、後者は柔軟な(ヒューリスティックな)計算課題に適していた設計手法である。

ILLIACによって生じたプロセッサ間通信の技術が、パイプライン演算を生んだ。具体的には、各専門プロセッサ間をネットワーク[3]で接続することによって、データ列を順次処理して行く手法である。これによって、あたかもデータ列は1クロック毎に処理されるパイプライン演算へと進歩を遂げたのである。この技術の延長上に、内部ネットワークを高速化する技術を活用し、各プロセッサ間をつなぎ、CPU群全体を1つのCPUとして活用する技術としての仮想処理技術、外部ネットワークの高速化を活用して各コンピュータ群を、あたかも一つの処理システムとして活用できるグリッドコンピューティングへ発展した。

[編集] 発展期初期 (1970年代初頭~1980年代初頭)

CDC STAR-100 と呼ばれるプロジェクトの失敗により、CDCが市場からの撤退を始めると、中心人物であったシーモア・クレイ氏がクレイ・リサーチ社を立ち上げ、Cray-1[4]を発表した。これは当時のスーパーコンピュータの性能を1桁以上上昇させ、各種科学的演算処理の本格的な使用に耐えうるレベルまで性能を持ち上げ、自動ベクトル化処理に対応したFORTRANライブラリ(FORTRAN-77)の提供を行った。

さらに1983年Cray X-MP/4提供時にUNIX系OSであるUNIC OSを提供しており、先進性を盛んに取り入れている。一方、日本のベンダもこの件に刺激され、富士通日立製作所日本電気共に汎用機の筐体を用いて開発された浮動小数点専用型のスーパーコンピュータにて市場に参入を開始することになる。一人の天才が主導するアメリカとは違い、日本の場合には組織コンセンサス型の文化であり、かつまた、既存の技術を応用してコンピュータ開発を行うことが主流のためである。

[編集] 発展期中期 (1980年代中盤~1990年代中盤)

その後、Crayによって打ち立てられたスーパーコンピュータの基軸に沿った形で、各スパコンベンダが自社のスーパーコンピュータを発表していく。 その基軸とは、

  • FORTRANライブラリによる科学技術計算の最適化
  • UNIX系OSの採用
  • ベクトル処理による処理高速化
  • バイポーラトランジスタによる高速演算子の採用

である。

この基軸は、第三項目がASCIシリーズによってスカラ機の性能が著しく向上するまで、また第四項目が1994年日本電気によるSX-4の登場まで、揺らぐ事無く、スパコンベンダの基本的な技術軸として影響を与えていく。[5]

[編集] ソフトウエアの進歩

FORTRANライブラリの充実と、同時に対話型ベクトルコンパイラの開発がスーパーコンピュータ開発に影響を与えたのも、この時期である。特に、対話型ベクトルコンパイラはIBMやUnysisによって、1960年代終わりに考案されていた手法である。一つのアイディア(科学)が成熟化(商品化)するまでには、かくも長い時間を要するのである。しかしながら、このようなソフトウエアの進歩は、計算機資源がそれだけ多くの研究者を初めとして、技術者が活用するようになった時代に突入した証でもある。

[編集] 発展期後期 (1990年代中盤~2000年代初頭)

日本電気のSXシリーズによるベクトル処理演算用プロセッサのCMOS化の流れが経済的/価格性能比的な注目を集める中、汎用プロセッサによるスカラ処理及び、汎用プロセッサを用いた擬似ベクトル処理がスーパーコンピュータ研究の中心的な流れとなっていく。

このスカラ処理による高性能コンピューティングは、現在のスーパーコンピュータ(HPC)の主流として1990年代中盤以降、多くのシステムで取り入れられ、発展している。

[編集] ベンダー間での議論

ベクトル型が有利、スカラ型が有利という議論がなされた時期でもあった。基本的には解くべき課題によって決せらるべき問題であり、かつまた、それまでのソフトウエアの蓄積等によってベンダ選定が行われるようになった時期ともいえる。また、スカラ型の場合にはPE(マイクロプロセッサ)の急激な進歩によって、それまで不可能と思われた領域へも活用が可能になったためであると思われる。現在も、多くのパソコン等で使用されるためマイクロプロセッサの性能向上はムーアの法則に従って進歩を遂げている。限界に近づきつつあるため、頭打ちの状態になりつつあるが、様々な民生用機器への応用によってスカラ技術の根幹を成している。

スーパーコンピュータでも引用されているが、PEにはメモリーを持たず、広域グローバルメモリーを保有したタイプの高性能コンピューティングが可能になった時期もこの時期である。実際、GB(ギガ・バイト)を超えるメモリーを搭載できるようになったのは、1980年代初頭であったが、メモリパリティ等が不安定で、ソフト開発者に負担をかけていた時期でもあった。現在は、シングルPE単位でGB(ギガ・バイト)を超えて、TB(テラ・バイト)を目指している時期でもある。システム全体としては、PB(ペタ・バイト)に達する時代になりつつある。なお、インターネット全体としては、既にEB(エクサ・バイト)を超えている。システムの基本単位としても、PBからEBの時代になっていくだろう。

[編集] 特定領域の研究者達の努力

専用プロセッサによる高性能コンピュータが注目を集め始めたのもこの時期である。これは、ASIC等の開発が非常に簡便になったため(ABELから始まり、VHDL等が標準化されたため)課題に応じた専用目的の計算機開発が可能になったことも大きい。

[編集] 一般の方々への波及

高速インターネット技術が確立され、スカラ型の超広域グリッドコンピューティングが始まったのもこの時期である。SETI@Homeを初めとして、現在はBOINCプロジェクトへと発展を遂げている一般参加型のグリッドコンピューティングが始まったのは、丁度この時期である。また、オープンソースの成果を活用し、Beowulf型と呼ばれる、パーソナルコンピュータを多数結合した、草の根型のスーパーコンピュータも出現して、商用化が行われた時期でもある。

[編集] 現在(2000年代中盤~)

これまでのスーパーコンピュータ(HPC)設計においては、ベクトル型とスカラ型の特徴に基づく実効速度や製造単価における有利 / 不利といった不毛な諸議論が続けられてきた。しかし、コストと性能のバランスを取りつつ、どちらも、半導体プロセス技術の改良及びマイクロプロセッサ技術の開発によって着実に進歩を遂げてきている。現在においては、半導体プロセスは物理学的且つ、電磁気学的限界が視野に入ってきており、シングルプロセッサによる性能向上はほぼ限界を迎えつつある。このため、複数の処理ユニットを有機的に結びつけ、高性能なHPCを仕立て上げる様な技術的課題の克服が求められている。

ただし、シングルユニットにおいても限界に達したわけではなく、これまで続けられてきた高温超伝導による技術開発や、完全に新規となるポストシリコンによる半導体設計や完全に新規の研究開発となる量子コンピュータといった新たなコンピュータ素子による向上の可能性も残る。この部分に関しては、本稿の将来の項や汎用京速計算機に記載する。

現時点のソフトウエア技術の限界は、ハードウエア技術によって得られた広大な世界を食いつくしながら進歩しているといっても過言ではない。しかし、プリミティブなチューニングや様々な調整等はこれからも課題であり、今後もハードウエアの進歩によって続くことになる。本稿では、現在における各技術毎のシステム設計状況について説明を行う。

[編集] ハードウェア技術に関して

[編集] 課題認識について

現在の課題としては、後に挙げたデバイス群を高集積かつ高密度化することであり、これらが達成されることによって高速なデバイス開発が十分可能であることである。無論、安定動作のためには、低温で用いる必要があるため、周辺技術も含めたシステム化が必要である。

[編集] デバイス技術について

ハードウエア技術に関しては、基本的には、EDSACUNIVACIBM、IILIACやCDCCrayで設計された方法となんら変わりのないものである。時間をかけて成熟化することによって、データフローアルゴリズムに適したハードウエアが開発できるようになったことも大きな進歩であった。基本的には、CMOS-FETが開発されたことによって、低消費電力が達成されることとなった。さらに、絶縁層の設計を見直すことで電子移動が高速になり、それまで中心であったECLトランジスタといったデバイスを置き換えることが可能になった。電子の高速移動に関しては、江崎ダイオードから始まるトンネル効果ダイオード、HEMT等の高周波デバイスが開発されたことによって将来への進歩が続いている。これらは、高周波デバイスとして宇宙通信を初め、マイクロ波通信、さらには電波天文学の世界ではかなり以前から用いられてきた。

特に、ハードウエア技術の進歩をもたらしたのは、CMOS半導体の絶縁体単膜化であったり、Cuインシュレータ技術であった。これらによって、低電力かつ高周波数のクロックにも耐えうる半導体プロセス技術が確立された。Cuインシュレータの高純度化によって、半導体内のインダクタンスを一気に低減し、非常に予測のしやすい半導体が構築できるようになったことである。また、微細加工技術によって、半導体のダイ自体をコンパクトにすることが可能になったことも、同期設計技術にとっては朗報であった。現在、最先端の試作では40nmの世界に達しつつある。今後は、短波長の光源を用いて、さらなる超微細化加工技術が確立されると思われる。

[編集] コンピュータアーキテクチャーについて

PEそのものの設計は、Crayらによって設計されたものとあまり変わりはない。プロセッサ間通信の問題は、外部バス化していたものを、内部バス化することによって得られている。ビット数を増やすことによって、帯域を増やし、クロック数を増やす(短波長化する)ことによってプロセッサ内部の通信量を増やす手法によって、最大の性能を達成している。

PEのトポロジー設計に関しては、様々な考え方があるが、各プロセッサを専用化するのか、汎用的に用いるのかによって、性能差が歴然となる。現在までの研究開発によれば、ソフトウェア・アルゴリズムによって可変的にPEのトポロジーを変更できる仕組みが最大の性能を発揮することは事実である。なぜならば、解くべき問題及び課題をアルゴリズムに分解し、それをPE間のプロセッサ連鎖に置き換えることによって、最大の性能を発揮させることが可能なためである。

PEのトポロジー設計に関しては、最適化設計と呼ばれる方法がある。ヒエラルキー型のトップダウン設計方法(あくまでもPEのトポロジーがトップダウン型となっているだけ)と演算アルゴリズムによって可変可能なトポロジーを選択する方法が考えられる。前者はBlue Geneで、後者は最新のGRAPE-DRで使用されている設計方法である。演算アルゴリズムに適した設計方法は、ソフトウエアのアルゴリズムの研究からフィードバックされている。ただし、無限再帰法などのアルゴリズムはPEの設計では難しいため、スタックを使わない計算方法を選択する必要がある。つまり、ハードウエアではLIFO[6]型ではなくFIFO型の設計となる。この設計方法がパイプライン演算の根幹をなしているのである。

[編集] 近未来技術への足がかりとして

ETA-10アーキテクチャーの場合には、MOSFET液体窒素にて冷却することで高速動作を可能にした点では、正しかった。しかし、液体窒素を冷却する装置を含めたシステム全体が巨大化する点が問題であったと思われる。なぜならば、メンテナンスを含めてコストが非常にかかるシステムになってしまうためであったと考えられるのである。この教訓を元にすれば、将来の冷却型システムの場合には、熱機関も含めた小型化及びシステム全体の密閉度を向上させる必要があると思われる。

STM技術等を活用すれば、1原子レベルで操作可能であり、様々な材料を構築できることは事実である。無論のことであるが、この場合には新しい材料を構築するためには非常に時間がかかる点は事実である。量産可能にするためには、化学的プロセスを活用した結晶成長法の方が遥かに理にかなっている。この両者を組み合わせた技術が今後求められる可能性があるし、現在も研究が進められている。

なお、将来に記載したが、放射光技術に関しては、半導体を構成する上でフォトマスクレチクルを作成するに当たり重要な技術である。そして、それらを写真工学的に活用することによって、超精密半導体を構成するための基幹技術となる可能性を秘めている。しかし、一番最良の量産化技術を確立するためには、エックス線レーザーガンマ線レーザーを手軽に扱える仕組みを作り出すことであろう。既存の、放射光施設では、量産化を行う工場等で保有することは、非常に困難だろうと推定できるからである。なぜならば、SPring-8では、周囲8Kmにも達し、用地買収等を含めても、数百億円以上の金額がかかるためである。それ以外に、工場の付帯設備まで、導入することになれば、現在最先端の半導体製造工場の、数十倍の投資が必要になり、現実的ではないためだろうと推定できるからである。

なお、放射光技術を用いることが出来るようになったときの、半導体製造技術としては、現在の「フォトマスク」とは違う素材が求められることになる。高速中性子測定等で用いられている、グラファイト結晶や鉛等の素材を用いたフォトマスクやレチクルを作成しないとエックス線レーザを用いた超精密半導体の量産化は難しい。なお、エックス線レーザを用いた半導体量産化システムでは、人への被爆の問題等があるため、極限作業ロボット等を活用した工場の建設も必要とされるだろうと思う。

短波長であり、かつまた、照射時間の長いレーザーはエネルギー量が大きいという特徴を持つ。現在のところ、電子加速によって生じる放射光を用いるのは、このエネルギー量を維持するためである。その高いエネルギー量を持つ、非常にコヒーレンシーの高いエックス線ガンマー線によって、分子構造の解明や結晶構造の解明が進んでいる。これを工学的に応用するためには、これからも技術開発が重要であるように思えるのである。なぜならば、基礎研究がキチンと確立してから、応用技術開発への筋道が開けるためだからである。そのためには、多少高額であり、かつまた、難易度の高い技術であっても、産業界と学術研究機関の相互連携によって、裾野を広げる努力がこれからも求められていると思うからである。

現在のスーパーコンピュータシステムにおいて、システムの冷却方法が水冷型から空冷型に変更がなされているのは、心臓部である「システムモジュール(CPUとメモリー)」における漏水や腐食等の問題を解決するためである。スーパーコンピュータシステムは、パソコンなどとちがって、専用の建屋や電算機室などに設置される場合が多い。ゆえに、アクセスフリーや強度の高い場所に設置ができるため、多少の騒音や多少の消費電力では問題がないのである。近年、パソコン等において水冷型や清音型が増えてきているのは、生活の場所、事務処理の場所等で使用されることが多いためである。

以上のような、教訓や課題によって、近未来には更なるコンパクトかつ高性能な計算機が開発され、専用・汎用共に、高度な計算機が出現して、実用に供されることになるはずである。

[編集] ソフトウェア技術に関して

[編集] 現状について

現在、主流となっているのは最適化技法と呼ばれる手法である。この手法は、コンパイラとユーザとの間の対話によって、その精度[7]や最適化密度[8]を決定していく方法である。この技法のみならず、初期値として最適化を行う方法があり、その技法の使い分けはユーザがどれだけハードウエア内部まで理解しているのかによって異なる。

ソフトウェア技術とは様々なレイヤーによって区分けされている。そして、その領域を経験から一歩づつ上っていくユーザ層と、ただシステムを使うだけのユーザ層という場合がある。この両者を区分けするものはない、お互いのユーザ層がニーズ(Near Equalデマンド)「ニーズとは批判・指摘・改善提案等を聞くこと」を相互にフィードバックし合うことによって進歩が続いているのである。つまり、スーパーコンピュータにおいても、時代の要請や解くべき課題によってソフトウェア技術は変わっていくと予測できる。具体的には、より使いやすく、より対話型の言語へ。そして何より、解くべき課題のデータが重要であり、それらのデータを用いて解析を行うソフトウェア開発にはライブラリフレームワークテンプレート等が必須となる。無論、課題を解くためには、その課題を認識する必要があり、当然その問題意識からデータを蓄積した上でのシミュレーションでなければ、正確な予測は難しい。

課題は、与えられる場合(特に、職務上)場合と、自ら発見する場合がある。教育プログラム等から明らかなように、与えられるのを経て、自ら発見し、課題を解決するための組織に所属しているのが一般の研究者である。

[編集] ライブラリの活用とライブラリを選ぶ理由

この相互の蓄積がソフトウエア技術を生むことになる。なお、ソフトウエア技術の場合には、シンプルなアルゴリズムが最速であるという保証はない。あくまでも、データ構造との間で検討されるべきものである。ゆえに、スーパーコンピュータでは、過去からの継承性によって、FortranCさらにはC++が開発に用いられるのである。近年、C++の利用が増えているのは、より良いCとしての活用方法であり、新たに加わったオブジェクト指向等に関しては、あくまでもライブラリ構築の際におけるカプセル化や機能モジュールの抽象化を目的にしているためである。

[編集] ネットワーク技術に関して

今後のコンピュータネットワーク技術について、断言できるだけの予測は不可能である。既に、地球全体がインターネットで接続される時代になった。しかし、様々な情報が飛び交い、どれが正しくどれが間違っているのかわからない事態に陥りつつある。

この観点から、クローズドネットワークとしての専用ネットワーク、オープンネットワークとしてのインターネットの区分けがきちんとされるようになった。このシステムは、今後も続くことになると思われる。

特に、専用ネットワークはある目的にあわせて設計されるため、非常に高性能かつ高速度になる。つまり、CCITT勧告によるOSI参照モデルのうち、ネットワークトランスポート層と物理層との間でのレイテンシーを解消するために、同期通信技術が用いられることになる。なお、完全同期とするためには、計算機間の計算速度のばらつきを解消する必要がある。このため、スカラ型スーパーコンピュータシステムでは、内部PEを同じプロセッサにするのである。

時間同期による精度の高い通信システムは、プロセッサ間の同期を正確に保つことになる。これによって、データ列はシステム同期に従って順序良く処理されることになる。

高速度の面においては、短い波長のレーザーを用いることによって、達成されることになる。紫外線レーザーを半導体技術を用いて発振させる技術が確立しつつある。短波長のレーザーをきちんと通信に用いるためには、現在の光ファイバー技術においてより純度の高い素材が必要になる。なお、純度の高い素材はアモルファスとならないため、中央に真空の光路を作成するなどの方法もある。この場合には、光路の周囲を紫外線を反射できる素材(具体的には、純銀等)でコーティングするなどの必要性がある。このため、コスト的には非常に高価となる。短波長レーザの場合には、真空中において最大の効率を発揮するため、将来衛星間通信等で活用される可能性もある。無論のことであるが、地上においては短波長レーザに適応したファイバーの開発がおこなわれると思う。今後の課題としては、安定的かつより短い波長のレーザー発振が必要になると思われる。

これらの技術を確立するためには、超微細加工技術が必要であり、かつまた、レーザー設計のシミュレーション技術も同時に求められる。無論のことであるが、より精度の高い微細加工技術を達成するためには、より精度の高い計測技術が不可欠になると思われる。精度の高い計測技術とは、時間計測+短波長レーザによってもたらされるからである。

スーパーコンピューティング・システム外部においては、グリッド・コンピューティング等によって現在までに既知となっていることであるが、バッチ分散型のシステムとしたシステム間の処理速度毎に集計を取るシステムが採用されることになると考えられる。ただし、ソフトウエア分散処理に関しては、システムリソースの状況を逐次管理し最適なスレッドやジョブを割り当てる仕組みが、今後の課題でもある。

つまり、スーパーコンピューティングネットワークの究極のネットワーク技術とは、内部システムにおいては処理時間の限界への挑戦となり、外部システムにおいてはシステム毎の分散型システムとなる。内部システムにおける処理時間の限界は、既に光速度の限界に近づきつつある。特に、試作段階における同期設計技術においては、その問題が発生し始める領域まで進歩を遂げている。今後の課題としては、量産化技術において、どこまで限界へ近づけるのかであろう。なぜならば、製品としてリリースするためには、有る程度の製造技術に余裕がないと難しいためである。具体的には、55nmの配線ルールを達成するためには、40nm以下の製造技術が求められる。

非同期・同期混在設計とは、このようなシステムの中間型インターフェイス技術として用いられることになる。なぜならば、高速の内部システムと、中速・低速の外部システム間において、バッファリングやラウンドロビン型のジョブ分配システムとして機能することになるからである。


[編集] Note

1.量子力学的には、単一の原子レベルの挙動のように観測されるが、半導体の素子レベルで観測すれば統計的には古典電磁気学的に振舞うのが、現在の半導体技術である。
2.1の問題を解決するために生じている技術がポストシリコンや超伝導技術、分子コンピューティング、量子コンピューティング等である。
3.その先には、将来の課題として掲げておくが、量子干渉効果や量子テレポーテーション高温超伝導、光格子演算等の実験から新たな量子技術が生まれてくる可能性がある。

[編集] 現状のHPC大規模システムのシステム上の問題点

単独のスーパーコンピュータだけによって処理性能を向上させるだけではなく、専用線ネットワークに接続されたスーパーコンピュータ群を仮想的に一つのコンピュータとして活用できる時代に入りつつある。その際において、以下のような問題点も内包されている。

  • 複数のスーパーコンピュータ(HPC)が独自アーキテクチャーで構築されたため、ソースレベルではコンパチブルだが、実行時の最適化問題及びスレッド動作上の問題が発生しうる点[9]
  • 前項を回避するため同一インタフェース仮想中間言語の開発が必要である点
仮想中間言語に関しては、Javaと同様にインタープリター仮想マシン上の動作となり、オーバヘッドが大きい。[10]
そのため、性能劣化につながる矛盾を抱えている。
さらに仮想中間言語に関して、システムコールのターンアラウンド時間を同期させ全体として最大の性能を発揮させるようなプリミティブな領域でのチューニングが重要となる。
  • 分散処理を前提としたや共通自動ジョブ操作機能の開発が必要とされている点
自動ジョブ操作に関しては、ViVAに代表されるスカラチップへのデータを流し込む仮想ベクトル化技術も組み込む形で進展すると予測される。[11]
  • ベクトル型とスカラー型の共存関係の構築。
スカラシステム(グリッドシステムに代表される)とベクトルシステム(地球シミュレータに代表される)とにおける初期の関係の通り、スカラシステムの良さ(大規模データベースを効率良く扱う)と、ベクトル型の大規模データを一気に処理できる良さを併せ持ったシステムとして構築するためのインターフェイスの改良。[12]
  • 単一スーパーコンピュータ(HPC)システムの巨大化[13]

等がある。

これらの問題点の解決策として、個々の大型HPCを並列的に接続し、分散クラスターとして扱う研究や投資も行われている。例えば、高速ネットワークによるデータ処理の並列化を目標に、情報基盤としての専用線ネットワークを構築し、Super SINET「所管:国立情報学研究所」、SuperSCiNet「所管:国立天文台」等のGigabit以上のバンド幅を持つネットワークが稼動中である。さらにクラスター基盤としてのGlobusSCoreの各プロジェクトにて実装仕様策定中であり、これらが全て実現すればHPC間での分散処理可能な仕組みを構築する事ができる。

システムをトータルで見たとき、システム最大性能を発揮させるにはシステムチューニングが重要である。

ハードウエア・チューニングにおいては、データフロー型の設計が将来的に復活し、データオリエンテッドな設計がシステムを構築する上で重要な課題である。これは既に1970年代に提唱された手法であるが、データフロー型ハードウエア技術が成熟を遂げたのは1980年代である。しかし、残念なことに多目的なソフトウエア開発が行われなかったことによって、一時期のブームに終わってしまった(なお、画像処理プロセッサグラフィックボード)等の専用プロセッサとして、そのアーキテクチャーは継承された)。

一方、ソフトウエア手法においては、データ主導型の設計が主流を占めたのは1990年代に入ってであり、ハードウェアのデータフロー型設計に準じた構造をなすには、資料の蓄積、技術の蓄積(成熟化)が必要であった。 これからの10年においては、システム構築に際しては、大規模データ処理技術としてのデータ駆動型の設計及び、計算主導型の設計として、PE(Processor Element)のトポロジー設計が重要になると思われる。これは、現在主流のスカラ型システム及びベクトル型システムの根幹をなす技術であり、データドリブンの設計方法がハードウエア及びソフトウエア全体に及ぼすと予測されるためである。

[編集] 詳細について

具体化してみよう。現在のコンパイラは、CPUの性能に甘えることによって、それなりの性能を出している。コンパイルソースからコンパイラを経て、機械語を生成するにあたり、機械語が増えることを冗長化率と呼ぶ。この冗長化率を最小にすることを、最適化と呼ぶ。最小化するためには、CPUの機械語を理解し、最小のプログラムを持って、必要とされるデータを処理するようにすることである。これが、制御等の分野におけるプログラミングの手法であり、工場の機械設備、自動車や飛行機のエンジンを初め、自動販売機、さらにはパチンコやスロットル、ポケットゲーム機、携帯電話等のシステム及びプログラムの根幹をなしている。

なぜならば、内部バスの接続はパラレルで行われている。それに対して、外部バスはシリアルである。なお、2次記憶用途などではシリアルでも可能な場合がある。なぜならば、レジスターメモリーとメモリー(一般的なRAMのこと)間の通信が最大になるように設計されているのが、現在のCPUであるため。レジスターとメモリーの間すら差が大きくなったため、マイクロプロセッサでは1次キャッシュメモリ、2次キャッシュメモリなどが搭載されるようになったのである。

[編集] 将来

スーパーコンピュータ技術全体から将来を俯瞰すると、これまで培ってきたベクトル型技術とスカラ型技術の双方の技術の両立が求められている。相互に発展してきた技術は、半導体から光技術へ、さらには量子技術へと進歩していくことになろう。量子技術に関しては、これからの研究開発者にとっては格好の課題であり挑戦となるであろう。放射光技術(Spring-8)、カーボンナノチューブフラーレン高温超伝導、さらにはホログラム演算、量子コンピュータ等に関しても研究開発を進めていかなければならない。これらが技術的に確立されることが将来の産業化へと繋がるであろう。特に、基礎研究分野がしっかりと確立されること、そしてそこから派生する技術、さらに将来の産業化への布石となることが重要である。

また、ハードウエア技術とともに重要になるのが、ソフトウエア技術である。

現在の時点では、量子技術に対応したアルゴリズムはShorの因数分解やGroverの検索等に限られているが、汎用的な量子論理に基づくアルゴリズムを開発するためには、これからも研究開発が必要であろう。その目的は、様々である。しかし、光技術によるコンピュータは、現在使われている光通信(光ファイバーによる広域通信)との整合性まで俯瞰すれば、情報処理の世界に大きな進歩をもたらす可能性を秘めているからである。

この先の時代にあっては、汎用技術中心に研究開発が行われるスーパーコンピュータとNLSとして開発されると特定目的の超高性能型スーパーコンピュータに別れていくだろう。しかしながら、超高性能型スーパーコンピュータが開発される事によって、その技術的恩恵を受けることが出来るという事実も認識して欲しい。

個人ニーズでスーパーコンピュータを開発するというのは、どだい無理な話である。しかしながら、現実問題として、小さなスーパーコンピュータを自分自身でも開発できるようになった時代へと突入した事実も事実である。つまり今後も、ある特定領域の計算課題を解決するために、必要とされる計算機を開発するということはありえるし、否定はしない。しかしながら、本稿を読まれる読者の方の殆どは、これからの科学技術を目指していく人々であって欲しいと願う。

[編集] 付記

1.既存の半導体技術を用いた設計方法は、量子コンピュータデバイス群である、ポストシリコン(カーボンナノチューブトランジスタやナノシリコントランジスタ)や高温超伝導素子によって得られることになるだろう。なぜならば、素子の振る舞いが既存のトランジスタ群と同じために扱いやすいという特徴を持つためである。(※)

2.完全な量子技術の場合には、解くべき課題によって特化された専用コンピュータとして出現する可能性が大きい。なぜならば、量子重ねあいの場合には、確率変数を取り扱わなければならない問題を抱えているためである。シミュレーション領域においては、確率変数を取り扱うことによってある程度の予測可能性が得られる。

3.1と2の考察の結果から明らかなように、当面は既存の半導体を置き換えるための量子技術が中心である。しかし、大容量のメモリーを取り扱ったり、多層記憶を可能にするための技術として量子技術が進展すると予測できる。

[編集] その他

現在のフラグシップ技術の一つである、バイオメディカルコンピュータについて。この計算機群は、ヒューマンサポートのために開発されることになるであろう。なぜならば、様々な諸事情によって後天的に生じた障害を克服し、社会復帰を行うため。さらには、先天的な障害に関しては、記憶操作等の可能性があるため倫理的かつ同義的課題を含むため、将来生命倫理の観点から議論がなされるべきである。バイオメディカル型の場合には、人に優しい技術を目指すことが重要であり、非同期・同期設計も含めて、処理速度の遅い人間と処理速度の速いシステムとの仲立ちをするシステムとして構築されることが理想であるし、でなければならない。

つまり、バイオチップ型コンピュータとは、人の記憶や感情を操作するのではなく、人間が人間らしい生き方をするために生まれるコンピュータであるといっても過言ではない。なぜならば、人間の脳ほど高性能なコンピュータはない。多用な言語を操り、多用な感情表現ができ、一兆にも及ぶ細胞群を上手にコントロールして人が人らしく、この世界に存在するためである。

なお、その他を記載したのは、この流れを一時期のものに終わらせず、日本においては「脳の世紀」、アメリカにおいては、Dedicate of Brain(脳科学の10年計画)と呼ばれた時代を総括するためである。

[編集] 関連項目

[編集] 学術研究分野

[編集] 材料工学分野

[編集] 参考文献

[編集] 論文及び一般資料

[編集] 電気通信に関する教科書

  • 寺田浩詔,木村磐根,吉田進,岡田博美,佐藤亨,情報通信工学,オーム社,1993

[編集] コンピュータアーキテクチャーに関する教科書

  • 坂村健、コンピュータアーキテクチャー -電脳建築学-、共立出版、1984
  • コンピュータシステム研究専門委員会監修,電子情報通信学会編,-コンピュータアーキテクチャシリーズ-スーパコンピュータ,オーム社,1992
  • デイビット・A・パターソン、コンピュータアーキテクチャー設計・実現・評価の定量的アプローチ、日経BP、1994

[編集] 回路設計に関する教科書

  • 小林芳直,定本 ASICのシステム設計,CQ出版社,1995
  • 小林芳直,定本 ASICの論理回路設計,CQ出版社,1998

[編集] 論文関連

[編集] コンピュータ開発プロジェクトに関する書籍

  • 嶋正利,「マイクロコンピュータの誕生」わが青春の4004,岩波書店,1985
  • 立花隆,電脳進化論-テラ・ペタ・ギガ-,朝日新聞社,1993
  • 杉本大一郎, 手作りスーパーコンピュータへの挑戦 テラ・フロップス・マシンをめざして,講談社,1993
  • 遠藤諭,計算機屋かく戦えり-新版-,アスキー,1996

[編集] スーパーコンピュータ未来技術への提言

  • シーモア・クレイ他著,スーパーコンピュータの未来,三田出版会,1992(注

注)邦訳の後書によれば、この書籍の原文が出た後、シーモア・クレイは事故にてこの世を去った。

[編集] 注記

表及び本文中に引用されている計算機名、ソフトウエア名は、それぞれ各社の各国における登録商標である。

[編集] 脚注

  1. ^ Unixは、SCOがトレードマークを持っているが、基本的にはオープンソースであるため、コンパイラさえあれば移植が可能なOSである。
  2. ^ コンピュータアーキテクチャー-電脳構築学-、坂村健、共立出版
  3. ^ パラレル接続の場合には、バスと呼ぶ。バスについて。なお、英語ではhighwayやbus barと呼ぶ。この語源は、基幹ネットワーク(電源供給ライン/高速道路等)からのアナロジーであると思われる。
  4. ^ CRAY-1の場合、ピーク性能を発揮するのは、64KW(キロワード)単位の行列計算において、加算及び乗算とからなる計算を行った場合である。その後のスーパーコンピュータ群では、ベクトルレジスターの容量の増大及び減算及び除算演算機能をハードウエアに組み込む形で性能向上が行われた。Wの単位について。Wは物理学では、J/sである。計算機科学では、ALU(演算器)の演算可能ビット数を1単位とすること。
  5. ^ CDCとHoneywell社によるETAシステムズによって、Cyber-205シリーズアーキテクチャーによるCMOS-FETを用いたスーパーコンピュータが発表されたが、テクニカルサポート面やセールスの失敗等によって短い期間で終了することになった。高速演算素子としてのCMOS-FETが未成熟であり、かつまた、開発者に嫌われたためであると推測できる。無論のことであるが、液体窒素を用いた装置冷却法を採用したため、当時の半導体技術や周辺技術ではシステムをきちんと製造できなかったためであると推測できるのである。
  6. ^ Last in Fast out 具体的には、メモリーのヒープ領域を活用してデータや演算子を積み上げる。そして、それを設定したトップアドレスから読み出す仕組みのこと。これをスタックと呼ぶ。
  7. ^ (※1)機械語最適化精度のこと。具体的には、ループ演算をマクロ展開したり、PEそのもののアーキテクチャーに合わせたコンパクトな機械語を構築すること。
  8. ^ (※2)具体的には、PEそのものの演算量に対して最大の性能を発揮するために必要な機械語の密度のこと。
  9. ^ (※1)解決方法としては、システムライブラリ側で吸収するなどの方法がある。実際に、MachLinuxでは、この問題を解決するためにシステムライブラリの最適化を行っている。また、スレッドの問題は巨大化したカーネルを極小化するなどの方法によって解決が可能である。
  10. ^ この問題を解決するためには、仮想マシンの最適化を行うことである。最適化における有名な例では、Appleのマッキントッシュパーソナルコンピュータの初期におけるツールボックスがあげられる。コンパイラの出力を、ハンドアセンブルしなおすことで、コードを極小化する最適化が行われた。
  11. ^ 自動ジョブ操作機能に関しては、窓口サーバの自動配分機能が重要である。それぞれのHPCが持つリソース(現在のリソースの状況)を上手に管理することで、最適化したコードを割り振る仕組みを構築できれば可能である。
  12. ^ お互いのシステムの持つバス間を連結できるインターフェイスが開発できれば可能である。実際に、高エネルギー加速器研究機構では、高エネルギー加速器トリスタン装置(電子・陽電子衝突型加速器。なお、CERNのLEPも同じタイプの加速器。現在は、LHCが稼動に向け準備中)においてDECVAX富士通のVPシリーズを直接結合する形でシステムを構築した事例もある。
  13. ^ この問題は、これからも課題である。最大の性能を発揮するコンピュータは、どうしてもセンター型にならざるを得ない。最大の原因は、PE(ベクトル・スカラーを含む)間の通信の問題があるためである。内部バスの速度を、仮に1000としよう。外部バスの速度は、1~100程度になるためである。この速度が逆転しない限り、現在のところは不可能である。


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -