↑にメニューバーが現れない場合、
クリックして下さい。
 更新日時:2013年 2月 11日 月曜日 - 3:43 PM
光と光の記録 --- 記録編(2013.02.11更新) 
 
このコンテンツは、Adobe GoLive6.0で制作しています。
     
 
 
  
 
 
 
 
目 次
 
■ 光の記録
 
■ 光を電子に換える材質
【光と電子の関係 - 最初の発見者 ヘルツ】
■ 光電子(Photoelectron)
▲ 光電面(光陰極、Photo Cathode)
■ シリコン(silicon) - 現代の光産業・電子産業の主
 
■ 光電効果(Photoelectric Effect)
▲ 光電子放出効果(Photoelectron Effect)
▲ 光導電効果(Photoconductive Effect)
▲ 光起電力効果(Photovoltaic Effect)
■ 光の記録原理 その1 --- 1次元記録
 
■ フォトチューブ(光電管 = Photoelectric Tube)
■ フォトマル(光電子増倍管 = Photo Multiplier)
▲ スーパーカミオカンデ
■ フォトダイオード(Photo Diode)
 

 
■ 光の記録原理 その2 --- 2次元記録 (ビデオ装置)
 
■ 撮像素子 --- CCD(Charge Coupled Device)素子
■ CCD素子の歴史
■ CCD素子のキーワード
■ CCD撮像素子の種類
・フルフレームトランスファ型CCD
・フレームトランスファ型CCD
・インターライントランスファ型CCD
・フレームインターライントランスファ型CCD
- スミア(smear)
- ブルーミング(blooming)
- VOD(Vertical Overflow Drain)構造
・プログレッシブスキャン型CCD
 (全画素読み出しCCD)
 
■ CCD撮像素子の撮像、転送原理
・インターライントランスファー型CCDの
  シャッタ機能
・フレーム蓄積とフィールド蓄積
・画素ずらし
・3板CCD素子(3CCD)
・カラーフィルタ方式CCD素子
モアレと光学ローパスフィルタ
・三層カラーCMOS素子(Foveon X3 CMOS)
・QE(Quantum Efficiency、量子効率)
・ショットノイズ(shot noise)、
  フォトンノイズ(photon noise)
・ビンニング(Binning)
■ 計測CCDカメラの先駆 - VIDEK社
■ 高解像力CCDカメラ(Megaplus)
■ 高速度カメラ用CCD素子(Kodak 16ch 読み出し素子)
■ 高感度CCD素子 - EMCCD
 
■ 撮像素子 --- CMOS
  (Complementary Metal Oxide Semiconductor)素子
■ CMOS素子とCCD素子
■ 電子シャッタ内蔵CMOS撮像素子
ローリングシャッタとグローバルシャッタ
 
■ 一時代を築いた撮像管
■ 撮像管の原理
■ 代表的な撮像管 - ビジコン(Vidicon)管
■ 撮像管の大きさ
■ 撮像管の種類
● ビジコン(Vidicon)
● プランビコン(Plumbicon)
● カルニコン(Chalnicon)
● サチコン(Saticon)
● SEC(Secondary Electron Conduction Tube)
● ハーピコン(HARPICON)(HARP撮像素子)
 
■ 電子管によるその他の撮像素子
● イメージコンバータ管
  (Image Converter Tube、転像管)
● X線イメージャー(X-ray Imager)
● イメージインテンシファイア(Image Intensifier)
● 電子顕微鏡(Electron MicroScope)
● フライング・スポット・スキャナー
  (Flying Spot Scanner、FSS)
 

 
■ 画像信号を記録する
テレシネ装置(Telecine)
 
■ アナログビデオ信号
  - NTSC(National Television Standards Committee)
アナログ信号の仕組み
・インターレース(interlace、飛び越し走査)
・NTSCの画面
・29.97フレーム/秒の怪
・アスペクト比4:3
・NTSC規格のカラー情報
・NTSC規格の水平解像力
・S-VHSビデオの解像力
・ビデオ信号のダイナミックレンジ
 
■ デジタル映像信号 (Digital Video Signal)
最初のデジタル画像
VGA規格(Video Graphics Array)
デジタル放送(Digital Broadcasting)
  デジタルVTR D1〜D6
4:2:2 コンポーネントデジタル信号
 
■ 画像の転送
・NTSCビデオ信号
・RCAコネクタ/ケーブル
・BNCコネクタ/ケーブル、
  映像出力インピーダンス(75Ω)ケーブル
・HD-SDIケーブル
・RS23C
・セントロニクス(Centronics)
・GP-IB(General Purpose Interface Bus)
・DMA(Direct Memory Access)転送
・VME(Versa Module Eurocard)バス転送
・SCSI(Small Computer System Interface)転送
・IDE(Integrated Drive Electronics)転送/ATA規格
・イーサネット = Ethernet
・FireWire = IEEE1394、i.Link
・USB(Universal Serial Bus)
・D端子
・HDMI(High-Definition Multimedia Interface)
・HD-SDI(High Definition - Serial Digital Interface)
・LVDS(Low Voltage Differentila Signaling)
・カメラリンク(CameraLink)
・PoCL(Power over CameraLink)
■ 画像の保存(静止画像)
・アナログ記録
- NTSC
- ハイビジョン
・ デジタル記録
  ・TIFF(Tagged Image File Format)
  ・BMP-DIB
    (Bit Map File / Device Independent Bitmap)
  ・PICT(QuickDraw Picture Format)
  ・Bayer
  ・GIF(Graphics Interchange Format)
  ・JPEG(Joint Photographic Experts Group)
  ・PNG(Portable Network Graphics)
  ・Exif(Exvhangeable Image File)
  ・DICOM(Digital Imaging and
     Communications in Medicine)
  ・EPS、ai(Encapsulated Post Script)
  - ポストスクリプト
 
■ デジタル画像の保存(動画像)
・AVI(Audio Video Interleaved Format)
・WMV
・QuickTime
・Motion JPEG
・MPEG
・DV-AVI
・DV
・DVD-Video
・デジタル放送規格
 
■ 画像(電子画像)の記録媒体
【磁気テープ】
   ▲ ビデオテープ
   ▲ 米国AMPEX社
   ▲ MT(Magnetic Tape)
    ■ LTO(Linear Tape-Open)
   ▲ DV規格とメタルテープ
【フロッピーディスク(FDD = Floppy Disk Drive)】
【ハードディスクドライブ(HDD)】
【光磁気ディスク(Magneto - Optical Disk = MO)
【CD(Compact Disc)】
【DVD(Digital Versatile Disc)】
【フラッシュメモリ(Flash Memory)】
 

 
■ 光の記録原理 その3
    --- 2次元記録 (フィルム装置)
 
■ フィルムは銀を使っている
■ カラーフィルム
【3原色感度層】
■ フィルム乳剤の種類
■ フィルムのタイプ
■ 35mmライカサイズカメラ
■ 小型カートリッジフィルム
■ インスタント写真
■ 映画用フィルム
■ 小型簡易白黒現像機
■ フィルムの解像力
■ 光の記録原理 その4
  --- 光増幅光学装置 (イメージインテンシファイア)
 

 
 
 
■ 光の記録
 

-

 
光の記録体系表(希望する項目にカーソルを当てるとリンク先にジャンプします)
 
 
 
 
 
■ 光を電子に換える材質 (2006.11.04)(2007.11.18追記)
 光と電子との関わりがわかるようになったのは、20世紀の初めでした。 今でも多くの人は、光と電子の間には直積的な関係などない全く別のものというイメージを強く持っています。
 電気は恐いけど、光に関しては寛容です。
そうした性質の違う両者は、実はかなり深い関係があることがわかって来ました。
性質の全く異なる両者は、実は仲が良いのです。
光と電気、いや電子は、実は密接な関係があって、原子レベルでは電子と光は絶えずエネルギーの授受を行っています。電子が放出するエネルギーが光を含めた電磁波であり、電磁波からのエネルギーを受けて電子は運動します。
熱も赤外域の電磁波です。物質は、熱によって分子レベルで運動が活発になり固体から液体、気体に変わります。分子が活発に運動する中で、自らも熱を発します。金属などは、固体から液体に変わると大量の熱と一緒に光も放出します。
これらはすべて、分子や原子の運動に伴って電子が放出する電磁波なのです。
 
 結論を述べると、光(電磁波)の記録は電子の助けなしにはあり得ないのです。
 
 
 
【光と電子の関係 - 最初の発見者 ヘルツ】
 光と電気、いや、電子は双方密接な関係があり、原子レベルでは電子と光は互いに絶えずエネルギーを受け取りあっています。
 1887年、ドイツのヘルツ(Heinrich Rudolf Herz: 1857 - 1894)は、イギリス人(スコットランド人)のマクスウェルによって数式で導きだされた電磁波理論の追試を行っているとき、放電電極に紫外線を当てると放電が起きやすくなることを発見しました。
 ヘルツは、電磁波の実験になぜ光(紫外線)を使ったのでしょう。
彼は、追試実験で放電ギャップを使って放電を起こし、それを15メートル離れた位置にコイルで作った受信器を置いて放電観察を行っていました。そのときに、たまたまその発見をしたのです。彼は、放電を肉眼で確認していたので、弱い光だと受信したかどうかわからないために、強い受信信号が欲しくていろいろな工夫を施し、その一環として光の照射(特に紫外線)を行ったというわけです。
最初、彼は受信部の放電を見やすくするために、受信部を暗箱で覆ってわずかな発光をする放電の観察を行いました。そうしたところ、受信部の放電発光は見やすくなるどころか、とたんに何も見えなくなってしまいました。そこで、暗箱のパネルを一つづつ外して行って、見やすい最適な配置を見つけて行きました。そして、観測窓を送信側に設けると、他に配置したときよりも受信部での放電がおきやすくなることがわかりました。
また、観測窓に通常のガラス材を用いると、放電がにわかに鈍るのに対して、石英窓にするとかなりはっきりと放電が認められるようになり、距離を15mに離しても放電が認められたのです。
彼は、このようにして、放電発光に関して何らかの光が関与していると考え、プリズムを使って受信部に特定波長の光を与えていったところ、紫外線が放電を促す強い効果があることをつき止めたのです。
 

 
 ヘルツ自身は、空中を伝わる電気現象の解明に集中していたため、彼が発見した光と電子による現象を深く掘り下げることはしませんでした。
それに、ヘルツはこの現象を発見した7年後、36才の若さで敗血病のため他界してしまいます
当時、「電子」という概念はありませんでした。
 ヘルツの発見の翌年の1888年、同国の物理学者ハルヴァックス(Wilhelm Ludwig Franz Hallwachs:1859 - 1922、ヘルツの門下生)は、光と電気に関する研究を別の実験で検証し、照射する光は短い波長であればあるほどこの傾向が強いことを再度確認しました(下左図参照)。
ハルヴァックスは、亜鉛板に紫外光を照射させ、この板を負に帯電させた検電器と接触させると検電器内の電荷が急速に無くなってしまうことを確認しました。また亜鉛に紫外線を照射させていないとき、検電器の挙動は緩慢であり、逆に検電器を正に帯電させておくと開いた金箔は閉じることはありませんでした。
 

  

 
 
 さらに、20年後の1902年、同国のフィリップ・レーナルト(Philipp Eduard Anton von Lenard:1862 - 1947:ヘルツの弟子、1905年ノーベル物理学賞受賞)によって、陰極線(=電子線)と光に関するさらなる興味深い研究成果が得られました。
レーナルトは、特殊な電子管をあつらえて、陰極に強力な炭素アークランプを照射し、それによって流れる電気の度合いを調べたのです。
また、炭素アークランプにプリズムを装着して任意の光を取り出すようにし、光と電気の流れる関係を調べました。
その結果、興味ある両者の関係を導きだすことができました。
その関係とは以下に述べるものです。
 
  ・ 光によって電気が流れるためには、最小の印加電圧(バッテリの電圧)が必要であった。
    この電圧以下では、どんなに強い光を与えても電気は流れない。
  ・ 電気が流れる条件の光では、照射する光量を2倍にすると流れる電気は2倍になった。
  ・ すべての光によって電気は流れるわけではなく、波長が短い光ほど容易に電気を流すことができた。
    赤色の光は、どんなにたくさんの光量を与えても電気を流すことができなかった。
 
 この現象は、当時の物理学では解き明かすことができない大きな問題でしたが、1905年にドイツの物理学者アインシュタイン(Einstein、1921年ノーベル物理学賞受賞)が両者(光と電子)の関係を説明し、光が粒子(光子 = )からなるというドイツの物理学者プランク(Planck)の光量子仮説を裏付ける結果を導きだしました。
 これら光量子説の構築において、レントゲン(Wilhelm Konrad Roentgen、1845-1923)が1895年に発見したX線は、多大なるヒントを彼らに与えました。
光の振る舞いをする電子に近い性質を持った電磁波(X線)は、光と電子を結びつける量子物理学の道を開いたと言っても過言ではありません。
今でこそ、
 
    「光は電磁波であり、電波のマイクロ波、赤外線、紫外線、X線と連綿と続く一連の波長の範囲の一部である」
 
と、極めて理解の良い説明が与えられているのですが、当時はその概念はなく、「光は電磁波である」と唱えたマクスウェル理論の追試を行っている途上にありました。その途上に電子線が現れ、放射線が現れたのです。
これら諸物性をどう説明するか。それが当時の大きな問題であったのです。
 レントゲンがX線を発見した当時、「電子」という明確な概念はありませんでした。
レントゲンが高電圧発生装置で強い電子線を使って不思議な放射線(X線)を発見したにも関わらず、電子線は電子からできていることを理解していなかったのです。
 電子は、X線の発見の2年後、1897年に英国人物理学者J・Jトムソン(Sir Joseph John Thomson:1856 - 1940:1906年ノーベル物理学賞受賞)によって解明されます。
 
 
■ 光電子(Photoelectron)
 光の働きによって個体から放出される電子や、個体内部で励起したり移動する電子を光電子と呼びます。
光エネルギーによって電子が励起したり、放出する現象を光電効果と呼んでいますが、最初に発見された光電効果は、光を金属に当てると金属表面にある電子が遊離する現象でした。
遊離した電子は、電場があれば引き出されて正極に向かいます。
この関係を端的に表したものが以下に示す数式です。
 
     Ep = 1240/λ [eV]  ・・・(Rec -1)
        Ep: 光子エネルギー(eV)
            eVは、エレクトロンボルトと読み、電子を真空中で1Vの
            電位差で加速したときの電子が得るエネルギー量を示す。
              1 eV = 1.6 x 10 -19 (J)
        1240: hc( = プランク定数と光速の積)を1eVで割った定数。
        λ: 光の波長(nm)
 
 上の関係は、電子と光を論ずる時に重要な関係式です。
ある波長λ(nm)の光は、Epという電子換算エネルギー(eV、エレクトロンボルト)を持っていて、この電位差がないと光は放出されないことを示しています。
発光ダイオードを作るときにもこの関係式は重要で、半導体素子のエネルギーギャップをこの理論エネルギー以上にしないと発光しないことを示しています。
例えば、赤色(650nm)LEDであれば1.9V以上が必要であり、青色(420nm)LEDであれば2.9V以上の電位差が必要となります。
短い波長ほどエネルギーが高いことがわかります。
 
 
▲ 光電面(光陰極、Photo Cathode)
 光電効果は、量子エネルギーが高い光が金属に当たると電気を放出する働きを言います。この作用を効率よく作用させる部位を光電面と言い、光 → 電気に変換させる重要なものとなります。光電面には、従来、銀(Ag)やセレン(Se)、セシウム(Cs)、カリウム(K)、ナトリウム(Na)、テルル(Te)、ガリウム(Ga)、ヒ素(As)、アンチモン(Sb)などの金属や、硫化カドミウム(CdS)、一酸化鉛(PbO)、セレン化カドミウム(CdCe)、三硫化アンチモン(Sb2S3)、ガリウムヒ素(GaAs)などの化合物が使われてきました。これらの材料は、光に対して反応が良いものです。光電面材料は、量子エネルギーの低い赤色から赤外に反応して電子を放出する素材が求められ開発が続けられてきました。
 本来、物質はすべて光に反応します。しかし、電子として取り出せる材料には限りがあります。光電効果に対して効率よい物質を求めてきたのが光電面開発の歴史です。光電装置の最初の装置は、セレンを使った光電管でした。
 最近では、シリコンが従来の高価な金属に変わって使われだしています。フォトダイオードは、ほとんどの場合シリコンで作られていますし、CCDカメラの撮像素子もシリコンでできています。シリコンはなぜ光に反応するのでしょうか。
 
 
 
 
■ シリコン(silicon) - 現代の光産業・電子産業の主役
 シリコンが光に対して敏感であることがわかったのは、70年ほど前(1940年)のことです。金属が光に対して反応し、電気を発生することはシリコンを使った発見よりもさらに70年も前の1873年、イギリスの電信会社に勤めていた技術者スミス(Willoughby Smith: 1828 - 1891)によって発見されます。そのときの金属がセレン(Se、Selenium)でした。
 そもそもシリコンは、電気を通すなどということすらもわかっていなかったのです。それが、トランジスタの発明を契機として、シリコンの素姓が徹底的に調べつくされ、現在では半導体電子機器部品の主役にまで上り詰めました。
 
▲ シリコン - 光反応の発見
 シリコンが光に反応することを突き止めたのは、ベル電話機研究所のRussel Ohl(ラッセル・オール: 1898 - 1987)とJack Scaff(ジャック・スカッフ: 1908〜)でした。1940年のことです。
彼らは、トランジスタを発明した同じベル電話機研究所のショックレー、ブラッテン、バーデンらよりも先に半導体の組成の研究をしていた研究者です。
 1939年8月、第二次世界大戦の勃発直前、ベル電話機研究所のラッセル・オール(Russel S. Ohl)は、高純度のシリコンを作る研究を同じ研究所の金属研究者であるジャック・スカッフ(Jack Scaff)に依頼しました。彼は、融けたシリコンを使って部分的に高純度化する方法を採用します。これは、ゾーン・リファイニング(帯溶融精製)として知られる技術で、戦後(1952年)、ベル電話機研究所のプファン(William G. Pfann: 1917.10〜 1982)によって確立される手法でした。 彼らの技術革新によって、シリコンが半導体の寵児となっていきました。
 1940年のある日、ラッセル・オールは数ある試験鉱石の中の一つである直径0.3mm、長さ25mmの細いシリコン棒におもしろい現象があることに気づきました。シリコン棒に光が当たると電気が起きたのです。彼がこれに気づいたのは、電気スタンドとシリコン棒の間に扇風機が回っていて、扇風機のゆっくりした動きに合わせて電気スタンドから照射される光がシリコン棒に遮られ、シリコン棒に接続した電流計が扇風機の動きに合わせて動き出したためでした。シリコンに影ができると針は下がり、光が当たると針が大きく振れました。
 これが、シリコンが光に反応して電気を起こす現象の最初の科学的発見でした。しかしながら、この発見はシリコンの光の起電力という観点よりも(シリコンで発電できるという発見よりも)、半導体のP型とN型構造によって電気が流れるという発見の方が関心が大きく、これを契機にトランジスタの発明につながって行きました。
 現代にあっては、半導体素子と言えばシリコンですが、トランジスタが発明された当初、半導体と言えばゲルマニウムが主流でした。ラッセル・オールらが基礎研究をおこない、P型N型の半導体発見の口火を切ったシリコンであったのに、初期のトランジスタではゲルマニウムに主役の座を譲ってしまいました。その理由は、当時、シリコンの精錬が難しくゲルマニウムのほうが結晶として得やすかったからです。
シリコンが脚光をあびるようになったのは、シリコン単結晶の製造法(ゾーン・リファイニング)が確立された背景要因がまず一つあげられます。
さらにもっと大きな要因は、シリコン素子による高集積化の確立からです。
シリコンは、簡単に酸化皮膜を作ることができ、酸化皮膜は電気を通しません。酸化皮膜をミクロン単位の線巾で描くことができるようになり、シリコン基板上に精緻な回路を作ることができるようになりました。小さな面積に10個、100個、1,000個という具合にトランジスタを描き作ることができるようになったのです。
これが集積回路(Integrated Circuit、IC)の発展につながり、CPUの発明を促し、CCDの発明につながっていきました。ゲルマニウムではICが作れなかったのです。
 
▲ シリコン - 物性
 シリコンそのものについては、「AnfoWorld 別館 奇天烈エレキテル シリコンって何物?」「同 半導体物質」を参照下さい。
 シリコンの純粋な結晶は、ガラスやダイヤモンドと同じように絶縁体であり、電気を通すことがありません。
結晶構造がしっかりしているので電子を捕縛したり遊離することができないのです。
しかし結晶の中に異種の元素を入れてやると、その部分に原子結合の歪みが生じます。
原子の中のあるもの(ガリウム、ホウ素、インジウムなど)は、電子の手が3本しかないので、シリコン結晶中に入るとシリコンの4本の手の内3本までは握手(共有)できるのに、残りの1本は空いてしまい電子を欲しがるものになります(ホール素子、P型半導体)。また、別のあるもの(ヒ素、リン、アンチモンなど)は、電子の手が5本あってシリコンの4本の手とすべて握手しても1本あまってしまい、電子を持ったままぶらぶらさせることになります。電子を与えやすいキャリア素子、N型半導体となります。
そうしたシリコン原子と電気的な結合がわずかに違う原子を、シリコン結晶中にわずかに打ち込んでやると、絶縁シリコン結晶から半導体結晶ができあがります。
これが、P型(電子を欲しがる)半導体と、N型(電子を持っている)半導体となります。
初期の半導体は、P型とN型の二種類の半導体を別々に作ってこれを接触させてダイオードやトランジスタを作っていました。
その後、一つの半導体結晶にP型とN型を作り込む接合型半導体ができました。
こうした半導体製造は、とても高度な技術が要求されます。基板となるシリコンは、99.999999999%(イレブン・ナイン)の精度で精錬し結晶を作らなくてはなりません。その結晶板を使って、その中に不純物(価電子の違う金属)をドーピングし、N型もしくはP型半導体を作ります。CCDのフォトダイオードもこのようにして作られます。
 
 
 
 
 
 
■ 光電効果(Photoelectric Effect) (2007.04.09)(2007.12.25追記)
 
 光と電子の相互関係を示す光電効果は、以下のような分類ができます。
 
 
▲ 光電子放出効果(Photoelectron Effect)
 この性質は、歴史的に比較的早くから現象としてわかっていたもので、光子の概念を構築する発端となったものです。
 この効果は、端的に言うと光に反応する物質に光を照射させると電子が遊離して表面から飛び出すというものです。光電管(真空管)はこの原理を利用しています。また、暗視カメラに使うイメージインテンシファイアや、高感度光検出素子であるフォトマルチプライア(photo multiplier)にもこの原理が使われています。
 
 
▲ 光導電効果(Photoconductive Effect)
 この性質は、端的に言うと、光を光に反応する物質に照射すると抵抗値が変わって電気を通しやすくするというものです。
 このような物質を光導電体といいます。光導電体は半導体か絶縁体に限られ、金属単体ではこうした性質を持ちません。
 代表的なものは可視光域では、シリコン、酸化鉛(PbO)、セレン化カドミウム(CdSe)、無晶形セレン(Se)、硫化カドミウム(CdS)などがあります。
 光導電効果を持つ材料は、撮像管の光電面として使われました。
 
 
▲ 光起電力効果(Photovoltaic Effect)
 この性質は、言ってみれば太陽電池のようなものです。光を受けると電気を発するというものです。
 太陽電池といえばシリコンが有名です。ですから、シリコンがこの性質を最も顕著に持っていると言って良いでしょう。
 シリコンの他に光起電力を起こすものとして、ゲルマニウム(Ge)や硫化鉛(PbS)、セレン化鉛(PbSe)、インジウムヒ素(InAs)、
 インジウムアンチモン(InSb)、水銀カドミウムテルル(HgCdTe)、鉛錫テルル(PbSnTe)があります。
 ただし、シリコン以外の物質は赤外域に感度を持っていて、可視光には感度がありません。
 
 
 
 

 
↑にメニューバーが現れない場合、
クリックして下さい。
 
 
 
 
  
 
■ 光の記録原理 その1 - - - 1次元記録 (1998.01)(2006.11.19追記)
 
 
 光を定量化する測定機器を考えて見ましょう。
光を検知する材料としては、セシウム、ナトリウム、カリウム、などのアルカリ金属があり、銀なども光に良く反応し、ガリウム、ヒ素、テルライド、シリコンなどの半導体も光に反応する性質を持ちます。
これらの素材は、アインシュタインの発見した光電効果で説明のつくものであり、量子エネルギーの小さな可視域(赤色)や赤外域まで感度を持たせた複合材料も開発されています。
ここでは主に可視光域について感度のある検出装置について特徴を述べます。
 
 
 
■ フォトチューブ(光電管 = Photoelectric Tube)
 フォトチューブ(光電管)は、光電効果を利用した最もシンプルな光検出素子です。銀、セシウム、ガリウム、ナトリウム、テルル、ヒ素などの光に反応して電子を放出しやすい材質(これを光電素子と呼ぶ)を真空状態のチューブ(真空管 = 電子管、Electron Tube)の中に入れて、これを陰極とします。陽極(プラス極)と光電面である陰極(光陰極、photo cathode)の間に、ある電圧を加えると光が当たった強さに比例して光電子が放出され、プラス電極に向かって電流が流れるようになります。この電流により、回路に組み込まれた抵抗間(出力抵抗RL)で電圧(E)が発生します。 (右図参照)
 フォトチューブは、映画フィルム端に光学的に記録された音声信号を取り出す際のエキサイターランプとしての応用が代表的なものでした。通常のフォトチューブは、印加電圧が 5 〜 30V程度で 1:100 程度のダイナミックレンジ(光の強さの度合)を持ちます。
 印加電圧を高くすれば電子が加速されやすく応答性がよくなります。2,000V程度まで印加できるフォトチューブがバイプラナ光電管(biplanar photo tube)として市販されています。こうしたフォトチューブは、印加電圧が高いので応答がよく10ps程度の性能を持っています。高速応答性のチューブは、パルスレーザの発光時間を測定するのに使われています。
 光電管に使われている光電面の発達が撮像管(Imaging Tube)の発展を促しました。撮像管とは、ビジコンとかサチコンなどと呼ばれているCCD固体撮像素子ができる前に活躍していたテレビ(ビデオ)カメラの眼のことです。
 
 
■ フォトマル(光電子増倍管 = Photo Multiplier)
 フォトマルチプライア(フォトマル = photo-electric multiplier、 光電子増倍管)は、光電面から放出された電子を二次電子放出する電極に衝突させ、これを何回も繰り返して、ねずみ算的に2次電子を放出させる真空管です。2次電子放出電極は、通常10段程度あり−1,000〜−2,000Vに印加された光電面から100〜200Vの電圧間隔で電極が配置されています。その結果、光電子増幅度は1,000,000以上に達し、非常に感度の良い光検出素子ができあがります。
 2次電子を受ける陽極は、バイアス抵抗を挟んで接地(グランド)されているため、出力(E)はバイアス抵抗間に流れる光電子で起電される負極性の電圧となります。バイアス抵抗を低くとっているため出力インピーダンスが低く、たくさんの電流を要求する測定器でも十分に流すことが可能です。
 光の応答は、2次電子電極を用いている関係上フォトチューブより悪く1ナノ秒程度となります。またフォトマルの受光部(光電面)の大きさによっても応答速度が変わり、大きなものでは4ナノ秒の応答となります。
 フォトマルは、非常に感度が良いので、微弱な光の検出や、分光器の射出口に取り付けて分光分析などに使われています。小柴昌俊東京大学名誉教授(ノーベル物理学賞受賞)の研究で有名になった神岡鉱山跡に設置されたカミオカンデのニュートリノ検出器にも大口径のフォトマルチプライアが使われています。このフォトマルは、口径が500mm以上もあり、大きな光電面で非常に微弱な光を検出しています。光増幅は1000万倍と言われています。
 
 
▲ スーパーカミオカンデ(Super-Kamiokande、Super-K)
 フォトマルの使われている代表的な事例を紹介します。
小柴昌俊東京大学名誉教授(ノーベル物理学賞受賞)の研究で有名になったスーパーカミオカンデに使われているニュートリノ検出器には、大口径のフォトマルチプライアが使われています。(モデルR3600。設計製造は、浜松ホトニクス株式会社)
 このフォトマルは、口径が500mm以上あり、重量が約8kgもある大きなエチゼンクラゲのような形をしたガラス真空管でできています。形状が大きいのは、大きな光電面で非常に微弱な光を検出するためです。その光増幅率は、1000万倍と言われています。1000万倍の光増幅を達成するために、フォトマルにかけられる電圧は最大2,500Vとなっています。
 光電面は、350nm〜650nm(ピーク感度波長は420nm、量子効率20%)の感度を持っていて、チェレンコフ光の青白い微弱な光を検出するために青色域に感度を持たせています。その材質は、バイアルカリ(Sb-K-Cs)であり、1700cm2(直径46cmの円状)の大きな光電面で受ける微弱光は、11段の増幅段(ダイノード)を経て2次電子を作り出し最大100uAの電流を取り出すことができます。
 この素子の光の反応は、10nsで応答し、光がフォトマルに入って電気信号として取り出すまでの遅れは95nsです。また、短いパルス光に関しては、5.5nsまでのパルス光を検出できます(Transit Time Spread [FWHM])。
 スーパーカミオカンデは、岐阜県の神岡町(岐阜県飛騨市神岡町池の山)の鉱山跡地に1995年に建設されたニュートリノを検出する巨大水槽と計測装置からなる設備です。初代の設備は、1983年に建設されたカミオカンデですが、スーパーカミオカンデの完成によってその役目を終えています。スーパーカミオカンデは、地下1000mに直径39.3m、高さ41.4mの円筒型水槽が埋設されて、ここに50,000トンの純水が満たされています。この水槽は、さらに内側と外側の2重構造となっていて、内側水槽(直径36.2m、高さ33.8m、容積32,000m3)はステンレス構造体で作られ、11,146本の20インチフォトマルが全水槽を覆うように配置されています(上面・下面各1,748個、側面7,650個)。外側水槽には、8インチ口径1,885個のフォトマルが内側水槽との仕切壁側に外向きに取り付けられています。
 これらのフォトマルは、宇宙から飛来するニュートリノが巨大水槽に入って減速する際に発光する青白い光(チェレンコフ光)を検出します。チェレンコフ光が非常に微弱であるのと、巨大水槽内で発光する光の空間位置と時系列を把握するために、11,000本の巨大フォトマル(20インチ)を配置してチェレンコフ光の発生をマッピングしています。8インチのフォトマルを外側に配置しているのは装置のバックグランド光を取り除くためです。
 
 
 
 
■ フォトダイオード(Photo Diode)
 最近脚光を浴びてきている光反応素子として、シリコンフォトダイオードがあります。これは、いままで述べてきた真空管(Electron Tube)と違い半導体構造であるため、以下の特徴をもっています。
 
フォトダイオード(参考)。形状はいろいろなタイプがある。写真は左部の開口部の円形状がフォトダイオード部。右端子がBNCになっていて使いやすい。
1. 小型
2. 堅牢
3. 安価
4. 高電圧電源不要
5. 過大な光に対して強い
 
反面、以下の欠点を持っています。
 
a. 反応速度が遅い
b. 光増幅率が低い
c. ノイズが出やすい
 
 フォトダイオードは、安価で取り扱いが簡単なことから光検出素子としてあらゆる分野で使われだしてきています。シリコンは、光に対して鋭敏で、光を電子に変換することができます。シリコンフォトダイオードは半導体ですから、光(時には熱)に反応して起電した電荷があふれると順方向に流れるようになります。しかし、ダイオード(半導体接合面)のしきい値を越える電荷( = 光)を蓄えない限り何の反応も起こさないので、極めてレスポンス( = 応答)の悪い素子になってしまいます。そこでフォトダイオードに順方向とは逆の電圧をかけておくと、ダイオードの電気的しきい値が低くなり、ちょっとした電気変動( = 光変化)でも電流が流れるようになります。バイアス電圧は5〜30V程度で、シリコンフォトダイオードの種類によって異なります。点接触タイプのPINフォトダイオードやアバランシェタイプはバイアス電圧を高くセットします。応答速度は、通常1マイクロ秒程度で、PINフォトタイプでサブマイクロ秒、アバランシェタイプでナノ秒です。いずれにしても、ダイオードとグランド間に接続された抵抗値により光応答性能と電圧出力が決まり、抵抗が高いものほど出力電圧が高くなる反面、レスポンスが遅くなります。ダイナミックレンジは、比較的広く 1:10,000 程度あります。
 フォトダイオードは当初、カメラの露出を決める露出計や照度計等に用いられてきました。半導体発光素子(発光ダイオード、LED)の発達と共に、発光ダイオードの光を検出して電気的なスイッチを行うフォトカプラー、フォトアイソレータという電子素子が開発され、電子機器に組み込まれて電気ノイズの遮断に威力を発揮しています。また、光通信分野においてもレーザ光を受信して電気信号に変換する装置にフォトダイオードが使われています。
 フォトダイオードの応用で最も興味深いのが、CCDカメラを代表とする撮像素子です。CCD撮像素子は、実はフォトダイオードの集合体なのです。画素の中心部はフォトダイオードでできていて、レンズによって集光する光を電気信号に変換する働きを持っています。CCDCMOSについてはのちほど詳しく述べます。
 
 
項目
フォトチューブ
フォトマル
フォトダイオード
光電素子
銀、セシウムなどアルカリ金属
50uA/lm
100uA/lm
シリコン
150uA/lm
使用電圧
100V〜300V
高い
1,000V〜2,000V
非常に高い
5V〜30VDC
低い
感度
中庸
最も高い
1,000,000倍程度
相対的に低い
応答速度
最も速い
ピコ秒
速い
ナノ秒
相対的に遅い
マイクロ秒
ノイズ
少ない
(真空管の利点)
中庸
(増幅ノイズの影響)
相対的に多い
(固体素子の宿命)
ダイナミックレンジ
1:100
1:1,000
1:100,000
(リニアリティがある)
その他特徴
・真空管
・高い電圧は使用しない
・応答速度速い
・別途電源必要
・真空管
・高い印加電圧使用
・感度が非常に高い
・強い光や衝撃に弱い。
 - 取り扱いに注意が必要。
・半導体
・低い電圧で使用
・感度も応答速度も遅い
・使い勝手が良い

光電素子の性能表 (この性能表は、傾向を示すための表です)

 
 
 
 


 
 
 
■ 光の記録原理 その2 - - - 2次元記録(ビデオ装置)  (2008.01.02追記)
 前項で述べたシリコンフォトダイオードを、とんぼの複眼のようにカメラ結像面に配置し、カメラレンズによって結像された光学濃淡像をテレビ信号として取り出すものが固体撮像素子CCDカメラです。テレビ技術は、比較的新しい技術ながら驚異的な速度で技術革新がなされて来ました。最近のビデオカメラやテレビカメラというと、CCDカメラが代名詞のようになっていますがCCDカメラができる前までは真空管を使ったカメラが主流でした。画像を見る受像機も真空管(ブラウン管、CRT = Cathode Ray Tube)が一般的でした。
 フィルム(銀塩画像)による2次元画像については項を改めるとして、電気信号処理による2次元画像は、
 
  1875年に端を発し(米国George R. CareyによるTelectroscopeの発明に始まります)、
  1931年に電子撮像素子(米国Farnsworthによるイメージディセクタ管)が完成し、
  1941年代に米国でテレビ放送規格(NTSC)が決まって大きな礎ができました。
 
 電子画像は、今となっては主流となっているものの、1830年終わりに発明された銀塩画像に比べてその足取りは遅く、1990年頃まではテレビ放送という形での発展に重点が置かれて写真のように個人が扱うまでには長い道のりがかかりました。電子画像は、画質が悪いけれど即時性があるため、テレビ放送などの分野に特化していたのです。
 電子カメラがフィルムカメラや映画カメラを凌ぐようになったのは2000年を越えてからでした。1981年に試作品として出品されたソニーのマビカ(Mavica)の品質は、銀塩フィルムに比べてお粗末なものでした(570x490画素、2インチ2HDフロッピーディスクにFM変調アナログ録画、アナログビデオ再生)。しかし、固体撮像素子の向上と記録媒体(CD、DVD、HDD、メモリスティック)の低価格化、再生装置(パーソナルコンピュータ)の高性能、低価格化によって、今は銀塩フィルムを凌駕するほどにデジタル画像は進歩しました。電子画像は、電子技術の成熟発展を待たねばならなかったようです。
 

 

 
 
▲ 2000年までの動画映像(Legacy video output) (2006.11.05)
 画像はとてもたくさんの情報を持っていて、これを記録したり転送したりするためにはこれらの大量データを高速で処理する機器が必要です。デジタル処理は、データの細分化とそれにともなう高速処理の戦いでした。デジタルは、アナログの持つ周波数以上にならないとそれを凌駕できないという宿命を持っています。動画像は、1955年に出発したテレビの送受信の画質と再生速度(NTSCビデオ規格)が一つの指針となっていました。デジタル画像は、テレビの画質と速度を凌駕しない限り普及できなかったのです。
 静止画像においては、銀塩のフィルム画像が一つの指針でした。キャビネサイズに引き延ばされたフィルム画像と、インクジェットプリンタでプリントされた写真を見比べて、遜色がなくなった時点でデジタル画像がアナログ画像に勝ったと言えました。2006年11月時点では、デジタル動画もデジタル静止画もあまねくアナログ画像を凌駕しました。2000x2000画素の静止画像や、1000x800画素で30コマ/秒の動画像はアナログ画像を凌ぐ画質を持っています。
 
 
▲ 映像は撮像面で一度にとらえるが、読み出しは1本の信号線から出力する(Serial video Signal)
 テレビ放送や家庭用のビデオカメラに使われている一般のアナログ映像信号の読み出しは次のようになっています。つまり、カメラレンズで結像された像は、カメラ内部の読み取り回路によって、左上から右下に順次なぞるような形で映像信号に置き変わります。従って、映像信号は一本の連綿と続くアナログ信号となります。実は、この連綿と続く1系統の信号であることが映像を電送する場合のキーポイントであり、放送電波として信号を送ることのできる原点だったのです。一連の巻き取り糸のような映像電気信号は、映像の記録(VTRの発明)にも便利でした。
 映像信号(NTSC規格のビデオ信号)は、0V〜1Vのアナログ信号であり、0V〜0.3Vは同期信号に割り当てられ、0.3V〜1.0Vを映像信号にあてています。暗い被写体は低い電圧であり、明るい被写体は1Vに近くになります。(ただし、最近の高画素デジタル素子や高速度撮像素子は1本の読み出し口から読み出すと速度が上がらないために複数の読み出し口から情報を取り出しているものもあります。)デジタル信号は、0V〜1.0Vの映像信号を8ビット濃度(256階調、カラーではRGB各8ビットで24ビット)に割り当てられました。
 NTSCビデオ信号については、別の項でも詳しく触れます。
 
 
 
 

 
 
 
▲ 撮像素子 - - -CCD(Charge Coupled Device)素子 (2004.10.24)(2007.12.23追記)
 
■ CCDの仲間
 CCD固体撮像素子は、光学像を電気出力に変換する撮像素子の中で最も一般的なものです。映像の撮像素子は、CCDだけかと言うとそうでもなく、以下示す固体撮像素子が開発されました。
 
  ・ MOS(Metal Oxide Semiconductor) 
       - 1966年〜。CCDの対抗馬的存在の固体撮像素子。
         消費電力が少ない。
  ・ BBD(Bucket Brigade Device)
       - 1969年〜。バケツリレー素子。
         松下が研究開発。
  ・ CID(Charge Injection Device)
       - 1970年〜。電荷注入素子。MOS型とCCD型の折衷素子。
         フィリップスが発表。
        GE社が開発を継続していた。
  ・ CPD(Charge Priming Device)
       - 1978年〜。呼び水転送素子。MOS型を基本構造とし、一部をCCD型とした素子。
         松下、日立が研究していた。
  ・ CSD(Charge Sweep Device)
       - 1983年〜。電荷掃き寄せ素子。
         三菱電機が研究していた素子。
  ・ PCD(Plasma Coupled Device)
       - 1972年〜。プラズマ結合素子。
         NTTが研究開発をしていたX-Yアドレス方式の素子。
  ・ SIT(Static Induced Transistor)
       - 1977年〜。静電誘導トランジスタ。
         オリンパスが開発。
         発想は東北大学西澤潤一教授。高感度。
  ・ CMD(Charge Modulation Device)
       - 1990年〜。MOS型素子。
         オリンパスが開発研究。
  ・ ISIS(In-situ Storage Image Sensor)
       - 2001年〜。CCD型素子。
         素子上にメモリ機能を置き100万コマ/秒の撮影を達成。
         近畿大学江藤剛治教授開発。
 
 こうした固体撮像素子を見ると、いろいろなメーカがお互いの特許をかいくぐりながらいろいろなアイデアを持ち寄って開発したことがうかがい知れます。
 そもそもCCDに代表される固体撮像素子は、テレビカメラの世界では新しい撮像素子です。固体撮像素子が全盛を極める以前までは撮像管(電子管)が使われていました。撮像管によるテレビカメラはとても高価であり、一般市民が簡単に使えるものではありませんでした。撮像管は、放送局関係の人達だけが使っていたプロユースだったのです。
 
■ 映像信号の記録とCCDの発展
 私の記憶では、テレビカメラは1940年代に発明されて1950年代の放送局の設立と無線放送の発展の中で放送局専用として使われたものであり、一般家庭で使われる代物ではなかったはずです。一般家庭では、テレビカメラをたとえ持ったとしてもこれを記録する録画機(ビデオレコーダ)がなかったのです。録画装置がない限りテレビカメラがあっても何の役にも立ちません。当時、アマチュアで動画の記録保存を行うには、機械が好きでお金に融通の聞く人たちが8ミリ映画フィルムを使った8ミリカメラを使っていました。
 1970年代後半から発売された1/2インチビデオテープによるビデオテープレコーダによって、家庭にビデオカメラが浸透し始め、1980年代後半に発売された一体型ビデオカメラの登場によってホームビデオが市民権を得るようになりました。
 ビデオカムコーダ普及にあたって、CCD固体撮像素子の果たした役割は大変重要なものでした。CCD固体撮像素子は、真空管撮像素子に較べて小型、堅牢、メンテナンスフリーで何よりも安価でした。このカメラが出る前の1970年代は、放送局に加えて産業用用途にそして学術研究用にITV(Industrial TV)という分野が発展し、CCTV(Closed Circuit TV)の分野も立ち上がって、テレビ業界の大きな発展を見ます。撮像管を使ったテレビカメラはその中で使われていたに過ぎませんでした。家庭まで浸透するには値段が足かせとなっていました。
 
■ CCD以前の撮像素子
 こうしたテレビの世界で使われていたカメラの撮像管として、目的に応じてさまざまなタイプのものが開発されました。これらは、赤色領域の感度確保、高画質、高感度化が主な開発目的でした。
 
  ・ イメージディセクタ(Image Dissector) - 1931年、Farnsworthにより開発。
  ・ イメージオルシコン(Image Orthicon) - 1946年、米国RCA社が開発。
  ・ ビジコン(Vidicon) - 1950年。撮像管の代表的なもの。
  ・ プランビコン(Plumbicon) - 1963年。オランダ フィリップスが開発。残像が少ない。
  ・ サチコン(Saticon) - 1974年。NHKと日立が開発。
  ・ カルニコン(Chalnicon) - 1972年。東芝が開発。
  ・ ハーピコン(Harpicon) - 1985年。NHKと日立が開発。超高感度。
 
 撮像管については別の項で詳しく触れています。
 これら撮像素子の中で、固体撮像素子であるCCDだけが何故広くゆきわたり、撮像素子の代名詞になったのでしょう。その理由は、CCD撮像素子が一にも二にも大衆マーケットである一体型8mmカムコーダを中心としたビデオカメラにあまねく採用されて、そこそこの画質と使い勝手の良さが認められ、大量供給による低価格化によって市場を席巻していったためです。
 
■ CCDの発展
 CCDカメラは、米国ベル電話機研が開発し、日本のSonyが1970年代後半に市販化しました。ビデオカメラの眼として市販化するそもそもの発端は、日本の航空会社(ANA = 全日空)の要求からと言われています。堅牢な固体撮像素子カメラを航空旅客機に搭載し、離着陸時の機外の様子を客室へモニタする乗客サービスをしたい、という航空会社の要求をソニーが受け入れ開発に本腰を入れて市販化されたということです。当時は、画素数も少なくて画質が悪かったため、放送業界はもとより一般産業分野(当時、これを放送テレビと区別して ITV = Industrial Television と呼んでいました)でも受け入れ難かったのですが、振動、耐久性を重視する航空機搭載の強い要求が CCD 固体撮像素子を育て上げたと言えます。いずれにせよ取り扱いが簡単なことや、過度の光が入射しても素子を傷めないことから、開発当時は、放送局業界より一般産業界で着実に顧客をつかみ、感度、解像度、価格などを向上させていきました。そして現在では、放送局用カメラはもとより、ハイビジョンカメラや計測用カメラにあまねく利用されるようになりました。
 CCDの成功は、以下の技術革新によったと言えましょう。
  
   ・取扱が簡単 - 低電圧で駆動、焼き付きなし(強い光が入射しても損傷しない)、振動や環境に強い。
   ・高画素化 - NTSC規格の解像力を凌ぐ高解像力。
   ・電子シャッタ内蔵 - 電子的に光量を制御可能。及び計測用として利用。
   ・高感度化(マイクロレンズ) - 照明装置を用いずに撮影可能。
   ・モジュールによる素子のパッケージ販売 - CCDファミリーの増加。
 
■ CCDのライバル
 同時代、日立からもC-MOSタイプの撮像素子が開発され市販化されました。しかし、1980年代はCCD陣営に追いついて拮抗するまでには至らず、1990年に入って製造中止を余儀なくされました。しかし、その4-5年の後に、MOS型撮像素子の低消費電力の利点が見直され、デジタルカメラや携帯電話の需要を見込んで1997年、東芝によってさらに進化させたMOS型撮像素子が開発されました。現在では米国をはじめ、再び大きな市場に発展する勢いを示しています。皮肉なことに、MOSタイプのカメラが再び脚光を浴びたのは、米国航空宇宙局(NASA)の宇宙開発での要求、すなわち、低消費電力でコンパクト、そして取り回しの良い小型撮像素子開発要求があったことです。CCDはMOSに較べて桁が変わるくらいに多くの電力を消費しました。熱が対流によって逃げない宇宙空間では熱発生が致命的な問題となるのです。(詳細は、CMOSカメラの項目を参照下さい)。この要求が実を結んで、CMOS撮像素子が2000年代の主役に再度躍り出てくるというのも面白い巡り合わせです。
 
 
【CCD撮像素子の歴史】
 CCD素子は、1970年に米国ATTベル研究所で、W.S.ボイル(Willard Boyle、1924.1〜)とG.E.スミス(George E. Smith:1930.5〜)によって発明されました。両氏は、CCD開発の功績で2009年ノーベル物理学賞を受賞しました。ボイル氏85才、スミス氏79才でした。
 彼らは、1970年に『The Bell System Technical Journal』という機関誌にCCDの基本原理と8ビットのシフトレジスタの発表をしました。論文名は、「Charge Coupled Semiconductor Device」でした。当時、彼らはCCD素子をメモリの一環として開発したのであって、カメラの目として開発したわけではありませんでした。CCDという名前は、電荷をパルスによって送る方式(Charged Couple)に由来しています。これは、1980年代、CCDカメラと熾烈な競争を展開したMOS素子の開発動機とは好対照です。
 MOS固体撮像素子の開発は、1963年、HoneywellのS.R.モリソン(Morrison)による「Photosensitive Junction Device」というフォトスキャナの発表に端を発します。CCDよりも7年も前のことです。これが1967年に、Westinghouseのアンダース、Fairchildのヴェクラー(Gene Weckler)、RCAのワイマー(Paul K. Weimer:1914 〜2005.01)などによってMOS型素子として発表されます。MOSは、フローティング状態のpn接合部に光の量に応じて蓄えられた電荷がスイッチング素子で吐き出されるという原理です。MOS素子の構造は、CCD方式に比べるとシンプルで作りやすい反面、各セルに蓄えられた電荷を取り出すのにトランジスタによるスイッチングで取り出すためスイッチングノイズが多く、これが画像に悪影響を与え(S/N比があまり良くなく)CCD転送方式に比べて大きなハンディキャップを背負っていました。しかしCCDに比べてシンプルで高速サンプリングが可能だったので、1990年代の高速度カメラにはMOS素子を使ったものが多く市販化されました(Kodak EM1012、Kodak HS4540、フォトロンFastcam Ultima、ナックHSV-1000)。
 両者の固体撮像素子の熾烈な競争の中、1990年代はCCDに軍配があがりました。
 CCD固体撮像素子(画像としての素子開発)は、1971年、ベル研究所のM.F.トムセット(M. F. Tompsett)によるフレーム・トランスファー方式のエリアセンサーの構想発表からスタートします。1972年にはベトラムが98画素、1973年にはシーガンが106 x128 = 13,568画素のCCD試作に成功します。1974年には、RCAのR.L.ロジャースが、NTSCテレビ標準方式にのっとった320 x 512 = 16万画素以上のCCDを発表して画素を向上させていきました。
 日本では1972年に、研究室レベルでソニーが8画素のCCDを作り電荷の転送を実証し、これをさらに8x8画素の64画素として「S」の字を撮像させたと言います。ソニーは、当時まだまだ問題の多かった固体撮像素子の画質を見る見る向上させ、1990年にはプロユースの撮像管を使った放送用テレビカメラを彼らが開発したCCDカメラで置き換えてしまいました。当時ソニーは、トランジスタで世界を唸らせる製品(小型トランジスタラジオ、小型テレビ受像機、テープレコーダ)を世に送り出していましたが、コンピュータメモリや集積回路では目立った実績を上げていませんでした。CCDは半導体製造技術でも特に高度な技術を要する素子です。こうした難しい製品の開発を成功させ、2000年にあってはカメラの目と言えばCCDと言われるくらいにカメラの代名詞となりました。現在は、ビデオカメラは言うに及ばず、デジタルカメラや放送局用のテレビカメラやハイビジョン用のカメラでさえCCDカメラに置き換わるようになりました。
 
 ■ CCDの基本原理 - シフトレジスタ
  CCDという名前は、今でこそ一般名詞(カメラの代名詞)として一般の人にも認知されるようになりましたが、名前の由来がどのようにしてできたのかよくわからない不思議な名前です。「CCD」のそもそもの原理や構造を説明できる人は多くはないと思います。最初に発表されたCCDの構造と原理をわかりやすく説明すると以下のような概念になります。
 

 

 
 CCDは、基本的に電荷を蓄えるための複数のセルを持っていて、電子回路によるシフト機構によって(電圧をタイミング良く上げ下げして、電荷を右方向に転送する仕組みによって)、順序よく電荷を次のセルに受け渡します。この方式がCCDの基本概念です。この方式によって蓄えられた電荷を時系列の時間情報として取り出すことができます。
 CCDが発想された1970年当時は、トランジスタとIC技術の進展でコンピュータ技術が発展している時代だったので、それに伴う周辺機器の開発(特にメモリ開発)が活発に行われていました。CCDは、コンピュータメモリの一環として開発されました。CCD開発には、磁気バブルメモリ(magnetic bubble memory)に代わるメモリ装置という伏線がありました。磁気バブルは、1960年代にベル電話機研究所(Andrew Bobeck、1926.10.01〜)が開発した記憶装置で、1980年代までのコンピュータの大切なメモリ装置でした。磁気バブルメモリは、CCD開発に多大な影響を与えます。つまり、CCDは磁気バブルメモリの欠点を補うべく開発されたのです。しかし、この両者は、1980年初頭に開発された小型HDD(磁気ディスク)の成功によりコンピュータメモリの世界から姿を消すことになりました。1980年当時の磁気バブルメモリは、情報を読み出すのに1/1000秒のアクセス時間がかかり、保存する容量も1Mビットを作るのがやっとでした。磁気バブルメモリは、1Mビット(125kバイト)のデータを読み出すのに、8ビットパラレルで2分もかかるのです。1980年に登場した小型HDD(IBMが開発したST-506)は、5Mバイトの容量を持ち、250kバイト/秒でデータを転送できました。これは、磁気バブルメモリの40倍の容量と250倍のスピードを持っていたことになります。磁気バブルメモリは、当時、富士通が熱心であり、彼らのパソコンFM-7、FM-8に記録装置として内蔵されていたそうです。CCDは、先に開発された磁気バブルメモリの性能を遙かに凌いでいましたが、どんどん進化していく小型HDDの性能を追い越すことができませんでした。当時の技術では、100万セル(1Mビット)のCCD素子を作るのが精いっぱいで、HDDには太刀打ちできなかったのです。
 コンピュータのメモリとしての命が絶たれた磁気バブルメモリとCCDでしたが、CCDは光信号を蓄積転送できるという特徴が活かされ、「カメラの眼」として新たな分野で発展成長を見ることになりました。
 
 
 
 
【ソニー(SONY)のCCD開発話 - NHK『プロジェクトX』 2004.09.14放送より、一部、別文献を参考】 (2004.09.19記)(2009.01.03追記)
 大企業のプロジェクトと言うのは、恵まれた環境の中で育てられて完成するものだと私自身は思っていました。日本のCCDカメラの開発も、ベル電話機研究所の発明を睨んで会社を上げての取り組みだと考えていたのです。しかし、NHKのテレビ番組『プロジェクトX』(2000年3月〜2005年12月)を見て、CCDカメラ開発の発端は閑職とも言えるべき立場にいた若いエンジニア(越智成之氏、東京工業大学電気工学卒、1962年入社)が、会社の意向とは関係なしに自発的に海外の文献を漁って、片手間に(しかし当人にとっては真剣に)手作りしたことに始まったことを知りました。彼は中国生まれで、少年時代手作りの真空管ラジオに熱中し、アンテナも自作して電波の弱い放送を感度良く受信していたそうです。根っからの電気少年でした。
 希望に胸ふくらませて入社されたソニーでしたが、配属先はスピーカーの性能を検査する部署だったそうで、毎日オシロスコープとにらめっこして波形データを記録する日々だったそうです。期待した仕事とは全く違った部署の配属となり、ジリジリとした焦りにも似た日々が続いた、と、越智氏は番組で述懐されていました。1962年に入社されて、ベル電話機研究所の文献が出される1970年までの8年間、ある意味の下積みをされていたのでしょうか。彼は、1961年に横浜保土ヶ谷区に建設された「ソニー研究所(現ソニー中央研究所)」に在籍されていたことは確かなようです。とすると、研究所の中でもあまりパッとしない研究職に就かれていたことになります。
 越智氏は、外国の文献を読んでCCDの事を知り、興味を覚えて独学でCCDの研究に取りかかります。1970年12月のことでした。当時越智氏は、同じ固体撮像素子であるMOS型素子も研究していたそうです。越智氏は、最初、CCDを遅延メモリの一環として研究を始めましたが(CCDの発明そのものが半導体メモリとしての使い方を考えていた)、撮像素子として使えそうだという着眼をしました。これが非凡な所です。彼の研究は、自分で始めた事なのでもちろん社内のバックアップも何もありません。その手作り製品は、8x8画素の64画素を持った撮像素子で、越智氏はこの撮像素子で『S』の字を撮影し(SONYの「S」なのでしょうか)、ノイズだらけながら文字を浮かび上がらせました。入社11年目(1972年、ベル電話機研の研究者が論文を発表した2年後)のことでした。この手作り製品を、研究所にやってきた岩間和夫副社長(当時、岩間氏は中央研究所の所長を兼任、1976年より1982年まで社長)が目にして、越智氏の人となりをすぐさま見抜いて大抜擢しました。5ヶ月後の1973年11月には、研究員やプロセスのすべてを各工場から中央研究所に結集させ大きなプロジェクトとして発足させました。
 当時(昭和48年、1973年)のソニーの会社事情と言えば、シャープが開発した4ビットマイコン内蔵の電子計算機の爆発的な売れ行きのあおりを受けて、6年前の1967年(昭和41年)に開発して主力製品となっていた電気計算機「ソバックス = SOBAX = Solid State Abacus、電子ソロバン」の売れ行きがぱったり止んでしまった時期でした。創業以来の危機に直面した時期だったそうです。岩間副社長は、そんな時期にソニーアメリカから呼び戻され再建を託されます。彼は、伝説的なトランジスタ技術者として社内外に知れ渡った有名な人だったそうです。トランジスタが発明された当時、増幅素子としてラジオに使うにはノイズが多く、補聴器以外に使い道のない電子素子という定説を覆し、トランジスタの性能を向上させ、超小型のトランジスタラジオ開発の成功に導いたのが若き電気エンジニアの岩間氏だったのです。彼が副社長として日本に戻った当時、ソニーは経営のどん底にあり、新しい核となる商品が咽から手が出るほど待ち望まれていた時期でした。岩間副社長(ソニー中央研究所所長)は、核となる商品の一つとして越智氏が自発的に進めたCCDの開発を一大プロジェクトとして指定したのです。
 彼らのプロジェクト目標は、8ミクロンの窓を持った20万画素(525画素x381画素)の撮像素子の開発でした。この最終製品の前段階として、昭和51年(1976年)に7万画素素子を開発し、引き続き12万画素の開発を続けていきます。製品開発は、歩留まりの向上、ゴミとの戦いだったと言います。当時の素子の歩留まりは1/3,000以下だったそうです。12インチのウェハーから8.8mm x 6.6mmの素子がおよそ1,000個程度できます。歩留まりが1/3,000ということは、3枚のウェハーからたった1個のCCD素子しか作れないことになります。彼らが手がけるCCD開発のプロジェクトは、彼ら自身にCCDの製造技術がなかったために一から出発をせざるをえず、完成させるまでに200億円の投資を行ったそうです。5年の実用計画に対して6年3ヶ月を要し、最初の顧客である全日空に初号機を納めます。
 社長の岩間氏は、製品も完成していない時に全日空に開発途上のCCDカメラを売り込み、注文を取ってしまいました。目標があった方が拍車に開発がかかるだろうという社長の思惑があったそうです。この件は、別の文献では全日空側が商品に対してすごい乗り気で、ソニーを説き伏せたような紹介がありましたが、テレビ番組ではソニー側から強力なお願いをしたように紹介されていました。いずれにせよ、全日空も空の路線拡大に競争会社と激しいしのぎを削っていたので、目新しいサービス商品が欲しかったのだと思います。そのCCDカメラが、1年の納期を経て1980年(昭和55年)6月1日に全日空のジャンボジェット機に搭載されました。納品したカメラは、12万画素で、価格は1台30万円。13機のジャンボ機にコックピットと前後輪脚にそれぞれ1台ずつ取り付けられました。合計52台の納品だったことになります。
岩間社長は、その3年後の1983年、ガンのため63才の生涯を閉じます。全日空のジャンボ機に搭載され、世に初めて固体撮像素子が出てこれからという矢先でした。ソニーは、この成功の後、2kgの重量を切るレコーダ一体型カメラ(カムコーダ)の開発に乗り出します。1985年1月には、最初の8ミリビデオカメラCCD-V8を発表しました。画素は25万画素でした。これでソニーは市場を独占することになります。1987年にはカメラの画素を38万画素に上げました。
 1989年に発売した「パスポートサイズ」のHandycam TR-55は、2/3インチ25万画素のCCDで、これにはオンチップ・マイクロレンズが取り付けられていました。これは直径7umの世界最小のレンズで、このレンズをつけたカメラは70年代半ばの試作機から比べ20,000倍の感度向上を達成しました。岩間社長はその成功を見ることなく他界されました。
 
【越智成之氏の書籍 - 「イメージセンサのすべて」(工業調査会、2008年10月15日初版)】 (2009.01.03)
 越智氏自ら書かれた「イメージセンサのすべて」に、CCD開発当時の様子が詳しく書かれてあります。これを読むと、上記の記述とはいささか異なっている箇所が見受けられます。その違っている部分を少しだけ紹介します。
入社当時の越智氏の仕事 - 越智氏は、トランジスタの研究を行いたくて、当時、トランジスタ(バイポーラ)で世界的に技術力の高かったソニーに入社されました。そこで、エサキダイオードに代表されるようなトランジスタの研究をするつもりであったそうですが、企業では、基礎研究よりも製品に結びつく研究が優先されるため、そうした研究につくことはできず、MOSの研究部門に配属されました。MOSは、米国RCAが開発した集積トランジスタの一種類で、ソニーが開発していた電子計算機(SOBAX)の回路に使われていたものの、ソニー内部ではMOSを主力に育てる機運がなかったそうです。SOBAXも、1973年に市場から撤退します。MOSの研究をしていた越智氏は、その応用が利くCCDの開発に目を留めました。
闇研 - CCDの基礎研究は、当初、会社のお墨付きをもらえない自分勝手な研究(いわゆる闇研)と一般的にとらえられていますが、実は会社からの認可をもらって、研究室長や研究所所長には定期的な報告をされていたそうです。ただし、研究費はつかなかったそうです。当時のソニー中央研究所は、研究者の自由な研究活動の裁量が認められ、若々しく闊達な雰囲気があったのは事実だそうです。 
死の谷の10年 - CCDの開発は、製品化にこぎ着けるまでに、大変な努力があったそうです。新しい技術の発想があって(CCDの開発)、これを実用レベルに達するまでの製品化には、発想の10倍から100倍の技術が必要とされ、10年間も地下に潜って黙々と問題点を潰していく作業が繰り返されるそうです。CCDの製品化が思うように行かない途上で、日立や日本電気との共同開発の話もあったそうです。そこまで行き詰まりながら、会社を上げた一大プロジェクトに指定され、CCDの製品化が進められたとその本で紹介されていました。
 
 
 
 
【CCD素子のキーワード】 (2007.04.09)
  CCDの性能を理解するには以下のキーワードが不可欠です。 
 下の図が固体撮像素子の模式図です。固体撮像素子は、精度の良いシリコン平面板に微細加工を施してシリコンのホトダイオードを作りあげ、一つ一つ埋め込んであります。このホトダイオード1つを1画素(または1ピクセル)と言っています。
 
▲ 画素(pixel):
 画像を構成する単位です。デジタル画像は、すべて画素(がそ、ピクセル、pixel)のモザイクによって構成されています。画素が多いほどきめ細かい画像が得られます。もちろん、画素の内容(白黒なら濃度 = 8ビット、12ビット、16ビット、カラーなら色情報)が多ければより一層きめ細かい画像が得られます。従来は、640画素x480画素あれば十分な画像と言われましたが、最近では1000x1000画素を越える画像が一般的になっています。
 
▲ 画素サイズ(pixel size):
 1画素の大きさです。1画素の大きさにはこれと言った規格がなく、メーカがまちまちに規定している感じを受けます。たとえば、あるCCDでは12x12umであったり、9.4umx9.4umであったり7umx7umであったりという具合です。画素サイズが小さい場合の利点は、顕微鏡などの撮影の場合、高額な顕微鏡をあつらえて拡大撮影したときに、CCDの画素サイズが小さいとキメの細かい画像を得ることができます。また画素サイズが小さいと、限られた寸法の撮像素子面上にたくさんの画素を入れ込むことができたり、同じ画素数であるならば小さい撮像素子にすることができます。これは製造メーカにとって、製造上(歩留まりの観点から)有利です。画素サイズが大きいメリットは、受光部が大きいので感度が良くなることです。高速度カメラや高感度カメラには画素サイズが大きいものが使われ、16umx16um、25umx25um、40umx40umのものが作られています。
 なお、画素サイズは正方形のものが計測用では一般的ですが、放送用には縦長の画素サイズが使われています。こうしたカメラを計測用に使う場合には注意が必要です。
 
▲ イメージサイズ(image size):
 1画素のサイズ(Ph、Pv)が決まって画素数(Mh、Mv)がわかっているとその掛け合わせでイメージサイズ(Ih、Iv)がわかります。
 
        Ii = Pi x Mi  ・・・(Rec -2)
          i = h、v (横方向、縦方向)
 イメージサイズは、その大きさを表す場合、一般的に1インチ型、2/3インチ型、1/2インチ型、1/3インチ型という言い方で呼び、この呼称でだいたいの大きさがわかるようになっています。この呼び方は対角線の長さではなく、電子管時代の呼び径を踏襲した言い表し方です。大きいイメージサイズの撮像素子を使うメリットは、画素サイズを大きくすることができるためたくさんの電荷を蓄えることができ、相対的に感度の高い素子とすることができます。また、カメラレンズも作りやすく性能の良い通常のレンズが流用できます。イメージサイズが小さい素子のメリットはコンパクトなカメラができる可能性があることと、製造上、同じ大きさのウェハーからたくさんの撮像素子が出来上がるのでコストが下がり安価になることです。
 私のように映像を計測手段とした仕事に従事していますと、固体撮像素子はできるだけ大きいものがうれしく感じます。撮像素子が1インチ程度のものですとニコンFマウントのニッコールレンズが使用でき、広い範囲を撮影する際にも焦点距離の短いレンズを用意しなくてすみ、また画素も大きいため感度の高い素子となります。レンズメーカも小型撮像素子用のレンズを作るのは難しいと言っています。
 例えば1/3インチサイズ(4.89mm x 3.66mm)のCCDでは、768(H)x 494(V)画素のものが出回っていますが、この素子の1画素当たりのサイズは6.37um相当となります。この値はすごい意味をもっています。結論から言いますと、小さくて高解像力撮像素子を満足するレンズ製作は理論的に極めて困難です。その理由は英国の物理学者レーリー(Reyleigh)が導き出したレーリーの回折限界で説明されるように、光の特性上結像面に光がうまく結ばずに光が回り込んでボケがでてしまうというものです。レーリーの導き出したボケ量(許容錯乱円)dは、以下の近似式で表されます。
 
d = 2 x λ x F   ・・・(Rec -3)
   d:許容錯乱円
   λ:波長
   F:レンズ絞り
 
この式によりますと、λ = 550nm、F = 5.6でd = 6.16umとなり、レンズをF5.6以上に絞り込むとレンズが撮像素子に負けてしまいます。従って、今後はむやみに細かな画素を持った小さな撮像素子は出てこないように思われます。ICの製造技術は驚くほど進歩して小さな画素の製造など簡単に行えるようになりました。しかし、レンズが悲鳴を上げています。撮像素子のイメージサイズが大事な理由の一つがこのレンズとの相性なのです。
 
▲ 受光サイズ:
 実際に光を受けるフォトダイオードの大きさです。1画素サイズそのままの大きさが受光部になるものはフルフレームトランスファ型CCDだけで、他の多くのCCDは転送回路などが配置されるため受光サイズは小さくなります。
 
▲ 開口率(fill factor):
 1画素面は全てを受光部としているわけではなく画素の中のある部分をホトダイオード部としているため撮像素子に入射する光をすべてホトダイオードで受けられるわけではありません。この受光部面積と、素子面積の比を開口率(Fill Factor)と呼んでいます。CCD撮像素子は、数種類のタイプのものがありますが、その中の最もよく使われているインターラインライントランスファ型CCD(電子シャッタ内蔵のCCD)では、同一平面内に受光した電荷を電気信号として取り出すための転送部を配置しなければならないために、開口率が小さくなります。フレームトランスファー型CCDは電荷の転送を画素を使って転送するために、つまり素子上に電荷を転送する専用の道がないために開口率を100%にすることができます。解像力を述べるとき、画素数よりもこの開口率が大きく影響を及ぼすことがあります。
 
▲ 受光電荷容量(dwell capacitor):
 1画素に光を蓄えることができる能力を受光容量とか受光電荷と呼んでいます。当然、画素サイズが大きいものや開口率が大きいものほど受光電荷量が大きくなります。 この受光容量に関してはCCDカメラ素子は色々なタイプのものが出回っていてそれぞれに特徴があって簡単に言い表せないのですが、フレームトランスファタイプのCCDカメラで電子冷却を備えている素子ほど受光容量は多く、インターライントランスファ型のように受光面積が小さいものほど受光容量は小さい傾向にあります。この受光容量の度合いは画像の濃度情報に影響を与えます。受光容量の大きいものは16ビット(65,500階調)のものがあり通常は8ビット(256階調)です。シリコンによるフォトトランジスタは、基板の熱によって電荷をランダムに発生してこれがノイズとなります。光によって蓄えられた電荷と熱電子によって運び込まれるノイズによって信号と雑音信号の比(S/N比)が決まりますが画質の良いCCDはこのS/N比がよくノイズに影響されないキチンとした信号成分を取り出すことができます。撮像素子のノイズは熱電子の他に、アンプ雑音(受光部で検出した光電荷を増幅するときに生じる初段トランジスタ発生ノイズ)、リセット雑音(読み出しのリセットをする際に発生する雑音)、光ショットノイズ(入力光そのもののノイズ)などがあります。物理学用で使われるフレームトランスファ型のCCDは16ビットのものが多く、高速度カメラ用には8ビットのものが一般的です。
 
▲ 量子効率(Quantum Efficiency、QE):
 1つの光子(hν)で1エレクトロンの電子が発生することを量子効率100%と言います。計測用CCDなどで、光子エネルギーが論議される分野では、重要な性能要素です。
詳細は、■QE(Quantum Efficiency、量子効率)を参照を参照してください。
 
 
 
↑にメニューバーが現れない場合、
クリックして下さい。

 

 

【CCD撮像素子の種類】

 CCD型固体撮像素子は、いろいろな進化、発展を遂げてきました。
現在の所、受光方式、転送方式の違いによって以下の5種類のものがあります。
 

I. インターライントランスファー型(IT-CCD)  -  現在、一般的なもの

II. フレームインターライントランスファー型(FIT-CCD) - 放送局用として使われているもの

III. フルフレームトランスファー型(蓄積部なし)(FF-CCD) - CCDの初期のもの

IV. フレームトランスファー型(蓄積部あり)(FT-CCD) - フレームトランスファ型の改良版

V. 全画素読み出し(プログレッシブスキャン)型 - インターライントランスファの改良型(インターレースを行わないもの)

   (ただし、これは1.のIT-CCDのジャンルに組み入れられている)
 
 
 8mmビデオカメラやビデオカメラでは、ビデオ信号に変換しやすい1.のインターライントランスファー型CCD(IT-CCD)が使われ、放送局用のビデオカメラには2.のフレームインターライン型CCD(FIT-CCD)が使われています。400万画素などのデジタルカメラや計測用の高解像力カメラには3.のフレームトランスファ型CCDカメラ(FF-CCD)が使われます。
 最近は、プログレッシブスキャン型CCDカメラ(Progressive Scan、全画素読み出し方式CCDカメラ)が開発されて、放送規格にとらわれないデジタルカメラやハイビジョンカメラに多用されるようになりました。上図にCCD素子の概念図を示します。
 
 CCD撮像素子の特徴は何れのタイプも受光した電荷を一つ一つバケツリレーのように転送していく方式です。
 
 
 
 
 
■ フルフレームトランスファー型CCD
 III.に示したフルフレームトランスファー型CCD素子は、上の図を見てもおわかりのように構造が比較的シンプルであり受光部も大きく取れ、撮像素子面に占める受光部(開口率)が大きいのが特徴です。開口率が大きいというのは、被写体の空間情報に連続性が得られ、被写体情報に欠落がない画像が得られます。受光部が大きいのは、光をたくさん受けますので感度が良くなります。また構造がシンプルなのでたくさんの受光部を作ることが可能で、1024x1024画素とか、2048x2048画素、4096x4096画素のCCDが開発されています。計測用のCCDカメラにはできるだけ開口部が大きく、明るく、S/Nが良く、高解像力で、ダイナミックレンジが大きいカメラが求められますので、このタイプのものが使われます。天体観測用のCCDカメラもこのタイプのCCDカメラが多いようです。
 フレームトランスファ型CCDは、CCDの中では最もシンプルな構造で製造も簡単ですが、インターライン型のように受光した電荷を転送する転送部を別に設けていず、受光部がそのまま転送部の役割も果たすので、受光された電荷は垂直の画素(受光部)を跨ぎ(またぎ)ながら転送されていきます。このときにカメラレンズを通して光が入り続けると転送中に電荷が増え、結果的に像が縦方向に流れたようになります(スミア現象)。従って、フレームトランスファ方式では受光が終わったら撮像面をメカニカルシャッターのようなもので遮光し転送を行うか、蓄積時間時にストロボのような短時間発光をする照明を用いてシャッタリングをする必要があります。
 以下に、わかりやすいフレームトランスファ型CCDの受光・転送メカニズムを説明します。
 
 
■ フレームトランスファ型CCDの受光・転送メカニズム説明 (2007.03.28)(2007.09.01追記)
 

 

 
 上図に、フレームトランスファ型CCD撮像素子の受光メカニズムを概念図として示します。
光を雨粒と見立てました。
光を電荷に変えて転送するメカニズムをバケツリレーに見立てました。
 FT(フレームトランスファ)は、CCDの最初のタイプです。
構造がシンプルなので、CCDの仕組みを理解するには一番良いタイプだと思います。
現在のCCD素子はこのタイプのものとは違いますが、基本的な考え方は同じです。
 また、実際のCCDは、上の模式図とは違って、レンズで受光し光電変換した電荷を転送する方式となります。
ですが、ここでは便宜的にメカニカルな機構に置き換えて説明します。
 
【模擬図の説明】
 CCDは、光の雨を受けるバケツ(画素)がたくさん配列されたものと見なすことができます。
バケツが512x512個並んで雨を受けていることを想像すれば良いでしょう。
バケツが大きければたくさんの量を溜めることができます。
また、長い時間をかけてバケツをかざしていれば、相当な量を蓄えることができます。
長い時間をかけてバケツをかざすことは、カメラの露出時間を長く取ることを意味します。
 
【受光 - 光の雨】
 バケツが光の雨を受けているときは、バケツをリレーする機構部は停止しています。
ずっと光の雨を受け続けています。
光の雨を受けるバケツには実は少々問題があって、長い時間受けているとバケツで受けた光の雨が漏れ出たり、回りのバケツやリレー機構部から水が漏れ入ってきます。
漏れる度合いは、バケツ(CCD)の大きさや性質によって違いますが、通常ですと1秒程度で現れます。
これはCCD用語(トランジスタなどの固体素子)では熱ノイズと呼んでいるもので、本来の受光による光量電荷ではなく、画像に悪影響を与えます。
光の雨が非常に微弱ですと揺らぎとよばれる特殊な光の性質によりショットノイズというものも現れます。これはフォトンを扱う領域で現れます。
 光の雨による電荷(signal)と漏れ入る電荷(noise)の量は、計測カメラなどでは公表されていることが多く、S/Nという言い方で示されいます。
S/Nが40dBですと、ノイズが信号に対して1/100であることを示しています。
60dB程度の性能があれば1/1000(1:1000)であるので、とても優秀なバケツ及び送り機構であると言えるでしょう。
また、別の計測カメラではこの不純成分をダークカレントノイズ(暗電流ノイズ、dark current noise
)という言い方で表し、2e-/pixel/sというような表記がなされます。
これは、1ピクセル、1秒当たり2エレクトロンノイズが入ることを示しています。10秒露光すると20エレクトロンの電荷が貯まることになります。
 
【バケツの種類】
 さて、バケツですが、バケツには光の雨を受けるものと、光の雨は受けずにバケツリレーを担って受光した光の雨を受けてそれを運ぶものの二つがあります。
前者は画素と呼ばれているものであり、後者は水平転送部と呼ばれるものです。転送部は垂直転送部と水平転送部の二つがあり、整然とバケツリレーを行います。
垂直転送部は、初期の頃のものは受光バケツが行っていました。受光と転送の二つの機能を受け持ちます。
これが今回説明してるものです。
水平転送部は、右の図では左端の少し大きめに描かれたもので上に蓋が乗っているものです。
この模擬図では、垂直転送をメインに描き表しているので、水平転送のセル(バケツ)は一つしか描かれていません。
しかし、実際のところ水平転送部はこの図から見て奥行き方向に水平方向分の画素列数だけ転送用のバケツがあります。
 
【フレームトランスファ】
 受光が終わると、CCDは画像を転送するプロセスに移ります。
この時、多くのフレームトランスファ型CCDでは撮像素子の前をメカニカルシャッタで遮光します。
なぜなら、フレームトランスファでは光の雨を受けたバケツそのものを使ってバケツリレーを行うので、雨よけをしないと、バケツリレーをしている間にも雨が入ってきてうまくないからです。
 
【水平転送の仕組み】 まず、最初に水平転送部(左図の一番上の図、左端)のバケツが下がります。
光の雨を受けたバケツからのリレーを行いやすくするためです。
水平転送部のバケツが下がったら蛇口機構部(遮断板)が下がってバケツの底に設けられている排出孔から光の雨に相当する電荷が開け渡されます。
 
【バケツの昇降】
 バケツが上がったり下がったりする仕組みが実は、フレームトランスファの真骨頂です。
これは、実際のCCDでは、電位を上げたり下げたりしてこの機能と同じことをしています。
パナマ運河の水門を開け閉めして水位を上げたり下げたりして船を運航させるのを想像すれば良いかと思います。
CCDの原語であるCharge Coupled Device のCharge Coupled というのが、実はこの電圧の上げ下げによる光量電荷の転送を意味しています。 
 
【転送の仕組み】
 水平転送部に電荷を開け渡した1番目(左端の水平転送部のセルから数えて右方向1番目)のバケツが空になると、バケツは下がります。
1番目のバケツが下がるのを見計らって、2番目のバケツの蛇口機構部(遮光板)が下がり、電荷が1番目のバケツに移ります。
 
 2番目の電荷が移し終わると、以下同様に、次のバケツの電荷を受け取って、順繰りに電荷を若い番号のバケツに移し替えて行きます。
 
 垂直画素のバケツの電荷がすべて1画素分若いバケツに移し替えられると、1番目のバケツは水平転送部に明け渡すタイミングを見計らいます。
と言いますのは、水平転送部は垂直転送部から下りてきた1水平画素分の電荷を休みなく出力段に送り続けていてとても忙しいからです。
 例えば、512画素(水平)x512(垂直)のCCDがあったとすると、右に示した垂直転送部は512列水平に並ぶことになり、それぞれの1番目の画素が512個同時に水平転送部に移ります。水平転送部では、512回バケツリレーによって電荷を転送します。
水平転送部が転送している間に、垂直転送部では上で示したような機構によって1番目のバケツに次の電荷が来るように準備します。
512x512画素の場合には、垂直と水平の画素数がちょうど同じなので、垂直転送部の初期段階は同じ画素数となります。
しかし、転送の終わりになってくると垂直成分に残っている画素が少なくなってくるので、短時間で垂直転送部から水平転送部に移す作業が終わり待ち時間が多くなります。
 
【転送のタイミング】
 フレームトランスファ機構を見てみると、一種のオートメーション工場のようです。
古い言い方をすればベルトコンベア工場のようです。
転送部は絶えずバケツが上下していて、蛇口機構でバケツの中身を転送するかどうかのタイミングを図っています。
CCD撮像素子は、このようなベルトコンベア機構と同じような電子回路があって忙しく立ち働いているのです。
忙しく立ち働くというのは電気をたくさん食うことにもなります。
絶えずベルトコンベアが動いているのでそのための駆動電源が必要になるのです。
 
 CCDカメラから電荷を取り出す場合、デジタル回路ではクロックによって理路整然とバケツリレーを行っています。
例えば、100kHzのクロックで512x512画素を読み出したとすると、1クロックに1画素の転送を行いますから、
 512画素x512画素 / 100,000 Hz = 2.62秒  ・・・(Rec -4)
1枚の画像を読み出すのに2.6秒かかることになります。
クロックを1MHzにすれば、0.26秒となります。
クロックを速くしてバケツリレーを速く行わせると、これは容易に想像できることですけれど、バケツ内のデータが暴れて飛び散ったり他のバケツに入り込んだりします。
つまり画像の画質が悪くなります。
CCDは、電子制御によってデータ転送を行っているとは言え、一般のバケツリレーと同じような現象が起きます。
従って、貴重な画像データをきれいに送るには、慎重にゆっくりと送らなければなりません。
その意味で、天体観測用のCCDカメラなどは、転送に1分程度の時間をかけてゆっくりと転送をしています。
 フレームトランスファ型CCDでは、高速データ転送が難しい理由がこれで理解できると思います。
またこのタイプでは、受光が終わって転送を行う際に遮光をしなければ余計な光が紛れ込んでしまいます。
メカニカルシャッタを素子に付けなければならないという点においても、高速撮影が苦手なことが理解できます。
従ってこのタイプでは、5 - 10コマ/秒程度の撮影が最大となります。
 
 
 
■ 蓄積部を持つフレームトランスファー型CCD
 IV.の蓄積部を持ったフレームトランスファー型CCDは、III.の蓄積部なしのフルフレームトランスファー型CCDに比べて蓄積部への転送を速く行うことができます。この機能をもたせたのは、CCDの特徴の一つであるスミア(スメア)を除去する目的がありました。蓄積部は、アルミの遮光幕で覆われているので、蓄積部から水平転送部へ送る時間をゆっくりにしても外部からの余分な光を十分に遮ることができます。したがって、このタイプでは、フルフレームトランスファ型CCDで必要であったメカニカルシャッタの装備は必ずしも必要でなくなり、30コマ/秒の撮影が可能になりました。ただし、このカメラの場合、縦方向成分の500画素から1000画素程度を一気に蓄積部に転送しなければならない関係上、これが転送時間の限界となっています。転送のタイミングは、カメラが受光を終わって読み出しを始める垂直ブランキング期間に転送する事が多く、この期間がだいたい1ms〜2ms(1/1,000秒〜1/500秒)です。この時間では、強いスポットが被写体にある場合に依然としてスミアが出てしまう可能性があります。
いずれにしても蓄積部のあるフレームトランスファ型CCDの転送は、それほど速く機能させることができません。蓄積部のあるフレームトランスファ型CCDは、撮像素子の半分が遮光膜で覆われているので外見から一目でそれとわかります。CCD素子の初期の頃には、このタイプのものが作られましたが、スミアが現れるのでインターライントランスファ型CCDの完成とともに作られなくなりました。
 
 
■ インターライントランスファー型CCD
 I.のインターライントランスファー型CCD(IT-CCD)は、CCDの代名詞とも呼ばれる代表的なものです。このタイプのCCDは、「電子シャッタ」が行えるという画期的なものでした。もちろん開発の目的は、電子シャッタではなく、CCDカメラの特徴であるスミア(スメア)低減の目的で開発されました。電子シャッタは、VOD(Vertical Overlfow Drain)という機能を追加することで完成します。
 インターライントランスファー型CCDは、歴史的に見ると最後の方に開発されたもので、1986年には、露出時間をサブミリ秒まで制御できる電子シャッタ機能が付加されました。シャッタ機能は、我々計測屋にとってはとても好ましい機能です。通常の市販のCCDカメラでは1/10,000秒(100us)程度のシャッタ機能が設けられ、計測用のCCDカメラでは1/1,000,000秒(1us)から0.1us(100ns)のシャッタ機能を持つものも市販されています。
 CCDカメラを市販化しようとした1980年代前半は、放送規格(NTSC規格)がテレビ規格の標準でしたから、これに準拠させようとして、すなわち525本の走査線で、30枚/秒の撮像ができるように設計が行われ、そして改良につぐ改良を経て良好な製品ができるようになりました。インターライントランスファー型CCDは、そうした高速取り込み(30フレーム/秒)ができるものとして開発されました。
 インターライントランスファー型CCDの撮像原理は、【CCD撮像素子の撮像、転送原理】で詳しく触れています。
 このタイプのCCDから派生したプログレッシブスキャン型CCDカメラ(インターレース方式ではなく全画素を一気に読み出す方式のカメラ)が、工業用、計測用、コンシューマー用のデジタルカメラに受け入れられるようになっています。
 当初、2/3インチから始まった撮像面サイズも、放送局用のCCDカメラは別として、1/2インチ、1/3インチと小型化が進み、現在では1/4インチが主力製品となっています。画素数も、1982年当時は20万画素(480V x 400H)であったものが、100万画素を越えるものが市販化されるようになりました。1画素の大きさも、発売当初は、13um x 22um程度でしたが、5um x 5um以下のものまで製品化されるようになりました。
 
 
 
■ フレームインターライントランスファー型CCD
 II.のフレームインターライントランスファー型CCD(FIT-CCD)は、インターライン型でありながら蓄積部を兼ね備えたCCDであり、初期のインターライン型よりさらなるスミア(スメア)現象防止のために開発されました。テレビ放送などで、夜間撮影で街路灯や車のヘッドライトの強いスポットがカメラに入ると上下に縦の輝線が走る現象を見られたことがあるかと思いますが、あれがスミア現象です。もっともこの現象は2000年前半頃までの話で、最近ではほとんどこうした現象は見られなくなりました。この不具合を持った放送局用のカメラはもう使われていないということです。携帯電話についているカメラや安価なデジタルカメラには現在でもこの現象が現れることがあります。この不具合は、画像を垂直転送部で転送する場合に1/60秒かけて転送するので、その間に強い光の迷光が転送部に入り込んでそのためにおきる現象です。この現象をおさえる手だてとして、垂直転送部に留まっている時間を少なくして速やかに蓄積部に移す方式が考えだされました。それがフレームインターライントランスファ型CCDです。通常のインターライン型CCDは、16.67ms(1/60秒)で転送を完了しますが、フレームインターラインタイプのものは240us程度にすることができ、1/69.4倍(1.4%)に時間を短縮できるので、転送中に光が当たるのを短くすることができます。フレームインターラインは、このようにスミア低減に効果があり、高級CCDカメラ(放送局用CCDカメラ、ENG = Electronic News Gathering カメラ)に採用されています。放送局用カメラは、現在2/3インチのFIT-CCDが使われ、画素数が40万画素から60万画素が使われています。
 
 
■スミア/スメア(smear):  (2007.04.09追記)
 スミアとは、CCD撮像素子に起きる特有の現象で、光の漏れ込みによって画像の明るい点を中心に画像縦方向に縞状の強い輝線が走るものです。スミアの発生は、受光した電荷の垂直転送を行う際に順送りに電荷を転送することに起因しています。インターライントランスファー型CCDでは、垂直転送部に遮光処置を施して、入射光の影響が極力出ないように作られています。しかし、それでも100%完全というわけにはいきません。現実には受光部と垂直転送部の境界部分で遮光が完全でなかったり、撮像素子面で光が多重反射して側面から光が侵入したり、遮光幕も完全ではかったりとわずかな光の混入は避けられないのです。
 シャッタ機能を使って非常に短時間のシャッタを働かせたり(これは相対的に受光部に入る光が強くなることを示しています)、感光部の一部に輝度の高い部分がある場合、遮光を施している垂直転送部にもわずかですが影響が出てきます。通常のインターライントランスファ型CCDは、垂直転送部を1/60秒かけて画像を転送しています。つまり転送部には最大16.67ms時間分電荷が留まっていることになります。たとえ電子シャッタ機能によって1画素に1/10,000秒(100us)の蓄積を与えても、転送部で16.67msの足止めをかけられるため、光の漏れが0.01%程度あったとすると、以下のような計算によって、
 
   0.01/100 x 16,667/100 = 0.0167  ・・・(Rec -5)
 
見かけ上、1.67%もの余分な光を拾ってしまいます。これが10usのシャッタ時間だと16.7%、1usのシャッタ時間だと100%を越えてしまう、つまり露光時間に得た光量より転送時間で入射した光量の方が多くなってしまう計算になります。
 画面の中にスポットのような明るい輝度の被写体がある場合も同じような現象が起きます。明るい輝度のものは100%近い飽和電荷量でセル(画素)に電荷を蓄えます。これがインターライントランスファー型CCDで転送部に移されても読み出し期間中わずかながらも遮光漏れが生じると、本来あるべきハズのない部分に光が被るようになり、視覚上無視できない像となって現れてしまいます。初期に作られたCCDには、スミアを持ったものが多くありました。現在のカメラはスミア対策を施してあるので、よほど安価なCCDでない限りスミアを認めることはなくなりました。しかし、極限的なカメラの使い方をするとスミアが現れます。以下にその参考例を示します。
 右の写真は、計測用のCCDシャッタカメラ(インターライントランスファ型CCD)で撮影したサンプルです。白熱電球のような非常に輝度の高い被写体を電子シャッタを使って撮影する場合、1/1000秒程度までであれば特に画像に支障がでることはありませんが、電子シャッタを短くしていくと像が垂直方向に流れてしまいます。右の写真の#4は、100ナノ秒というとても短いシャッタを設定したときの画像です。(計測用のCCDカメラではそれができるのです。)100ナノ秒に露光をセットして撮影すると、非常に明るい白熱電球自体でさえも露光時間が短いため撮影されず、代わりに1/30秒の転送時間中(33.3ms = 100ナノ秒の333,000倍も長い時間)に強い光が撮像面に入り続けるため(なにせ、100ナノ秒で露光を行うので相当強い光を撮像面に入れないと適正露光が得られないので)、結果として垂直方向に画流れが起る画像となってしまいます。 
 また別のタイプのCCDであるフレームインターライントランスファー型CCDは、インターライン型でありながら蓄積部を兼ね備えたCCDで、転送部に電荷が留(とど)まっている時間を最小に抑えて速やかに蓄積部に移すタイプのものです。このタイプは放送局用のENGカメラに使われているものです。通常のインターライン型CCDは16.67msで転送を完了しますが、フレームインターラインタイプのものは240us程度で蓄積部に移すことができます。こうすると、垂直転送部に留まっている時間を1/69.4倍(1.4%)に短くすることができます。フレームインターライン型CCDは、このようにスミア低減に効果があり高級CCDカメラ(放送局用CCDカメラ)に採用されています。しかし、この値は、スポーツ放送を含めた一般的な撮影には許容できる時間となるでしょうが、1usを扱う科学技術計測分野では依然スミアが出てしまう危険性があります。
 スミアは、CCD固体撮像素子を使う以上避けて通ることができない特性です。通常の画面では検知しにくくはなっていても、現実には数%のオーダーで転送中に余分な光を被って画質に悪影響を与えていると考えて良いと思います。メーカではこの点を憂慮して迷光が垂直転送部に入らないようにCCD製造工程の製造精度を上げたり(マスク合わせ誤差の低減)、受光部に効率よく光を集めるマイクロレンズを使って光を画素方向に集中させる工夫をしています。
 
 
■ブルーミング(blooming)(2000.09.16)
 bloomとは、もともとは花びらが広がるという意味です。CCDの画素に明るいスポットが当たると周辺まで光が回り込み(電荷が隣の画素にあふれ出し)にじむような現象になることをブルーミングと言います。
CCDは、構造上垂直方向に電荷が漏れやすいので光量漏れは縦方向に広がります。従って、丸いスポット輝度でもブルーミングが激しいと縦長となります。(下の右写真、天体写真の星を参照。)
 ここで気をつけなければならないのは、ブルーミングはスミアと違うということです。ブルーミングは受光部に飽和光量以上の強い光が入射して溢れだすもので、スミアは垂直転送時に入ってはいけない光が漏れ入る現象のことです。スミアの方が縦線が長くなります。
 ブルーミングを避けるには、受光部(ホトダイオード)の下部、基板面に対して、垂直縦方向に強い光によって溢れ出た余剰電荷を捨て去る構造(VOD = Vertical Overflow Drain)を組み入れて、ブルーミングの改善を施す方法があります。現在のCCDカメラは、この方式を採用して大きな効果を得ています。VOD構造は、大きな副産物も生み出しています。VOD部にある時間タイミングで掃き出しパルスを与えて、ホトダイオードに蓄えられた電荷を逐次掃き出しを行って必要時間分だけの電荷を蓄えるという「電子シャッタ」機能を付加できたことです。したがって、最近のCCDカメラは、初期の頃に比べてほとんどブルーミング現象が起きなくなりました。
 初期の頃のカメラ、つまりフレームトランスファ型CCDは、100%の開口率であるため余分な光を排除するドレインを作ることができないため、オーバーフローした電荷が右の写真のように垂れるように上下の画像に流れ込んでしまいます。天体観測用分野では、現在でもこのタイプのカメラが使われているので、ブルーミングは撮影を行う上で気をつけなければならない要素となっています。
 
 
 
■ VOD(Vertical Overflow Drain) 構造 (2008.05.07)
 CCDの開発の歴史をひもといてみますと、CCD撮像素子開発はスミアとブルーミングとの闘いだったような気がします。こうした現象をいかに抑えるかがCCD性能向上を計る上で大きな課題だったといえます。これを低減させるために、いろいろなタイプのCCDが作られてきた印象を受けます。
 ブルーミング低減の一つの方式として、受光部に溢れ出た電荷をグランドに速やかに流し去る方法が考えだされました。これがオーバーフロードレインという方法です。これは洗面所やお風呂の浴槽にあるオーバーフロードレインと同じで、あふれそうになる水を槽内の排出孔から強制的に流し去る構造と類似しています。そうしないと溢れ出た水が周りにまき散らされて水浸しになってしまいます。ブルーミングとはそういう現象なのです。
 オーバーフロードレイン構造は、初期は撮像素子の画素の横に溝を掘って排水溝を作っていました。これをLateral Overflow Drainと呼びました。しかし、この方法は、素子の受光面を掘割してドレイン回路を作るので、受光部面積が圧迫されてしまいます。
 この方法に対して、ドレイン部を素子の垂直方向に配置して受光部下部の基板に余分な電荷を直接排出する構造が考え出されました。受光部の底にドレイン孔を設けて、電荷を浴槽の下から抜いてしまおうというのがVODです。こうすれば、素子面をドレイン部(排水溝)で取られることがなく広く使うことができ、感度低減を回避することができます。また、このドレインは、水位の高さ調整を任意に行うことができ、受光槽が溢れるレベルよりも下に設定しておけば回りの槽に電荷が溢れる出ることはありません。ドレインの高さは必要に応じて槽内の下部まで下げることができます。
 このドレインを下側に設けたことで、副次的な産物を生み出しました。この構造は、電荷を完全に抜き取ることができるので、必要に応じて受光部を空っぽにしておくことができます。これが電子シャッタ効果を生み出すことにつながりました。30フレーム/秒で撮影するカメラでは、1/30秒のほとんどをVODのドレインに流し続け、転送が始まる直前にドレインコックを締めて受光を開始し、その後貯まった電荷を転送部に明け渡すという芸当ができるようになりました。
 
 
 
 
 
【インターライントランスファ型CCD撮像素子の撮像、転送原理】
 インターライントランスファー型CCD撮像素子の構造は、下の図を見てわかるようにかなり複雑です。CCDの基本的な転送方式は、上のフルフレームトランスファ型CCDの所で述べました。下の図のインターライントランスファタイプは初期の頃のもので、最近のものはかなりの改良が施されているため必ずしも同一のものとはなっていません。下図のタイプに示したCCD撮像面のシリコン基板の上には、光を電荷として蓄える受光部と、貯めた電荷を一ヶ所に集めるための転送部が設けられています。模式的に転送部を大きく描いてありますが、下の図のような小さな感光部では開口率(素子全体に占める受光部の割合)が悪く、光を撮像素子上に投影しても多くの光を受光できずに低感度の撮像素子となってしまいます。この欠点を補うため転送部をできるだけ細くしたり、感光部に光を集光させるためのマイクロレンズをつけて集光度を上げる工夫をしています。構造を見ているとオートメーション工場のベルトコンベアのような感じを受けます。縦横無尽に電荷を運ぶための転送部が張り巡らされていて、タイミング良く各セル(画素)で蓄えられた電荷が運び出されて行くようになっています。転送の方式は、縦方向は4相電極による転送が一般的で、水平は2相駆動が主流です。相駆動というのは、垂直転送部のV1からV4の電極に90度ずつずれたパルスを印加させる方式です。この方法によって、転送部に移された受光蓄積電荷が各相の駆動パルスによってバケツリレーのように運ばれて行き、左下の取り出し口(下図)から押し出されて画像信号として取り出されます。このようにして、平面に展開された撮像素子の各画素で蓄えられた受光電荷が一箇所から順序よく取り出されます。
 
 
■インターライントランスファー型CCDのシャッタ機能
 垂直転送部とVOD機構を持ったインターライントランスファ型CCDは、電子シャッター機能があります。これは高速度カメラや計測用カメラでは非常に有効な機能です。初期の(グローバルシャッタ機能を持たない)MOS型固体素子や、フルフレームトランスファー型CCDにはシャッタ機能がありません。
 IT-CCDでは受光した電荷をあるタイミングで1-2usの時間で転送部に渡します。転送部に渡すタイミングはCCD素子で若干の違いがありますが、垂直ブランキング(テレビ画面の左上から読み出し始めるタイミング)の前後5us程度で行われます。
 電子シャッタは、電荷を垂直転送部に渡す直前までの一定の時間だけ受光し、それ以前に受光した電荷は強制的に掃き出すものです。掃き出すのは一回の動作でなく水平読み出し時間(1H)のタイミングで何度も吐き出し信号を与えて各セル(画素)に貯まった電荷をオーバーフロードレインに掃き出します。垂直転送部にシフトするタイミングが近づくと、予め決められた露光時間分のタイミングで掃き出しを止めて露光を開始し、露光時間が経過した時点で垂直転送部にシフトさせます。こうして電子シャッタが働きます。
 
 
■フレーム蓄積とフィールド蓄積(フレーム読み出しとフィールド読み出し)(Frame/Field Integration, Frame/Field Readout)  (2008.05.18)(2008.006.01追記)
 1990年代までの計測用CCDカタログを見ると、CCDの性能の欄にフレーム蓄積とフィールド蓄積という機能が書かれています。
 また、計測用のCCDカメラを購入すると、取扱説明書にフレーム蓄積とフィールド蓄積の設定の仕方が書いてありました。
しかし、現在主流になっているプログレッシブスキャン型CCDではこの機能を設けていません。新しいカメラは、従来の煩わしい考えをしなくてもそれ以上の画質とシャッタを行えるようになったからです。1990年代までのビデオカメラは、高速撮影(=短時間露光などの計測撮影)に複雑なテクニックを必要としました。ビデオ信号を利用したカメラを計測カメラとして使おうとした場合、面倒な所作が必要だったのです。
 フレーム蓄積とフィールド蓄積とは、いったいどういう意味と効果があるのでしょうか。
インターラインフレームトランスファ型CCDは、今まで何度も述べているように、NTSCと呼ばれる放送規格に準拠した読み出し方式の撮像素子として開発されました。ビデオカメラ用の素子として開発されました。この規格では、1秒間に30枚の映像が作られ、1枚の映像(1フレーム)は2つの画面(2つのフィールド)によって構成されていました。(これをインターレース方式と言い、2011年まで放送されているアナログ放送はこの規格に従っています。)また、1枚の映像(1フレーム)の垂直走査線は、525本と決められていますから、1フィールドはその半分の262.5本となります。1フレームの半分が1フィールドです。このフレーム、もしくはフィールドを使った画像の蓄積(読み出し)の違いを、フレーム蓄積、もしくは、フィールド蓄積と呼びました。
なぜ、このような難しいフィールド/フレームと呼ばれる方式をNTSCは採用したのでしょう。これは、インターレース(interlace)という項目で詳しく触れていますが、要するにテレビができた当時はこのような方式を取らざるを得なかったということです。わかりやすい送信の方式を取る技術が当時無かったということです。わかりやすい技術とは、525本の走査線を1秒間に60回の割合で送るという方式です。当時、それだけたくさんの映像情報を送る技術が無かった、しかたなく2回に分けて送った、それが2フィールド1フレームの画像であったわけです。
 
▲テレビジョン規格のCCDを計測用に使わなければならなかった時代:
 一昔前までは、今のように多様化した撮像素子がなかったので、放送用に使われていたテレビカメラを計測用として使うことが一般的でした。
NTSC規格に準拠したビデオ画像(ビデオ信号)をうまく利用していたのです。
たとえば撮影速度が欲しい応用には、1フィールドを1枚として1画面を構成し、60フィールド/秒とみなして相対的な撮影速度を上げて使っていました。しかし、これを通常のVTR(ビデオテープレコーダ)に記録して再生し、希望する画像を「Still = スティル(静止画)」機能で止めると2枚の映像がパカパカと重なって再生されます。これは、通常のVTRが2フィールドを1フレームとして画面を構成するという約束を守っているため、1/60秒ずつずれた映像を交互に再生するために起きる問題です。テレビカメラのこのような撮影の仕方をフレーム蓄積(フレーム読み出し)と呼んでいます。
計測分野で通常のVTRを使う場合は、上記の問題が現れるので、フィールド再生ができる業務用のVTR(もしくは計測用の特殊VTR)を使っていました。1フィールドずつを磁気ヘッドで読み出して表示するというのは一般的なビデオ信号出力ではあり得ないことだったのです。
 
▲ 1/30秒の露光を持つフレーム蓄積(Frame Integration)
 フレーム蓄積による撮影では、1フィールドが1/30秒の蓄積となり、これが1/60秒ずつずれて画像が形成されていきます。
1フィールドの画像は前後のフィールド画像と1/60秒ずつオーバーラップした時間情報を持っていました。
この方式では、1画像(1フィールド)が時間軸に対して完全に独立したものではありませんでした。
従ってこの露光方法で、画像解析を行おうとすると、時間情報が曖昧なものになってしまいます。画質はフレームで得られるので良好な反面、時間に対してルーズな画像となります。映像を垂れ流す放送映像であれば、これは特に問題とならなかったようですが、計測分野では大きな問題となりました。この問題は、電子シャッタの採用以前はストロボの短時間発光で解決を見たり、電子シャッタの採用で大きな問題とならなくなりました。
 
▲ 時間の同時性を重視したフィールド蓄積 (Field Integration)
 フィールド蓄積は、フレーム蓄積とは反対に1/60秒単位で2つのフィールドを合成して取り出す方式です。つまり1/60秒のタイミングで奇フィールドと偶フィールドを合成して1つのフィールドとして出力します。フレーム蓄積では、フィールドの蓄積時間は1/30秒となるのに対し、フィールド蓄積では1/60秒と半分になります。この方式は、フレーム蓄積に比べて時間的な整合性が取れるようになる反面、2つのフィールドの空間成分が1つのフィールド成分で合成されますので垂直解像力は悪く(半分に)なります。
 最近のインターライントランスファ型CCDは、電子シャッタ機能によって蓄積時間が制御できるようになったので、フレーム蓄積とかフィールド蓄積という呼び方は適切でなくなり、フレーム読み出しとかフィールド読み出しという言い方をするようになっています。蓄積(受光)が任意にできるようになったため、読み出しだけを定義するようになりました。
 
▲電子シャッタ(Electric Shutter)の恩恵:
 電子シャッター機能は、先に「VOD(Vertical Overflow Drain)構造」で説明しました。この機能は、計測カメラでは重要な機能でした。この機能によって動きの速い対象物を移動ボケなく撮影できるようになりました。ただ、この機能は読み出される直前の決められた時間分だけの露光に限られていて、任意の時間でのシャッタはできません。従って、「フレーム読み出し」、「フィールド読み出し」の機能は、露光時間が短くなっただけで他の機能は同様に残っています。電子シャッタ機能を使った「フレーム読み出し」では時間的に完全に分離した2枚のフィールド像が得られるようになります。「フィールド読み出し」では垂直分解能が悪くなる反面、二つの画素(奇フィールドと偶フィールド分)が合成されますから信号成分が2倍になりS/N(Signal to Noise Ratio)のよい画像が得られるというメリットがありました。電子シャッタは、短い露光時間に設定すると被写体によってはスミアが出る可能性がでたり、先に説明したように任意のタイミングで露光がかけられないデメリットがありましたので、これを補う形でストロボ(短時間発光光源)が使われました。
 
▲ストロボなどの外部短時間発光光源を利用した短時間露光撮影:
 電子シャッタ機能が搭載されたCCDカメラであってもフレーム読み出しモードでは、2フィールド間の時間差は1/60秒あります。また、フィールド読み出しでは1/60秒毎に短時間露光の画像が得られるものの、画質が半分になってしまいます。こうした不具合を解決して、同時間で短時間露光を行って良好な画質(フレーム画質)を得るには、右に示すようなストロボを使った方式がベストでした。ストロボは1us〜20us程度で200Hz程度の強力な発光が可能でした。このストロボを使ってCCDをフレーム蓄積モードにして、第一フィールドと第二フィールドの同時蓄積時間(1/30秒の間)内でストロボを発光させると、同一時間での全画面撮影ができます。ストロボ撮影モードでは、カメラ側からストロボを発光させるタイミング信号を出す必要がありました。ストロボが勝手に発光すると、第一フィールドと第二フィールドのタイミングが狂い、前のフレーム画面に第二フィールド画面が入ってしまって生き別れ画像(1/60秒ずれた画像)となってしまいます。
 こうした複雑な撮影手法も、プログレッシブスキャン型CCDの登場で撮影が楽なものになりました。
 
 
▲プログレッシブスキャン型CCD(Progressive scan CCD)の登場:
 最近では、NTSC規格に準拠しないCCD素子、つまり、デジタルスティルカメラやコンピュータ用(学術研究用、工業用)のCCDカメラが開発されるようになって、上記に述べたようなモードで撮影しなくても十分な解像力を持ち、しかも電子シャッタの効くものが市販されるようになりました。以下に述べるプログレッシブスキャン型CCDカメラもそのうちの一つで、2005年には4,008画素 x 2,672画素、電子シャッタ機能、12ビット濃度(4096階調)という高精度の性能を持つものも市販されるようになりました。2011年から完全移行するデジタルテレビ放送でもプログレッシブ放送が採用されています。
 
 
 
■プログレッシブスキャン型CCD(Progressive scan CCD)
 インターライントランスファ型CCDは、インターレースタイプのため1/60秒毎に全画素の半分ずつを読み出す方式を取っています。プログレッシブスキャン型は、こうしたフィールド毎の読み出しに替えて全部の画素を読み出してしまう方式です。デジタルカメラやコンピュータ対応のカメラの出現によって、従来の放送規格(NTSC)にとらわれる必要がないためこうした素子の開発が可能になりました。放送局以外にも大きなマーケットがあるとメーカ側が市場を呼んだ結果だと思います。その思惑通りに、このマーケットは携帯電話内蔵のカメラやデジタルカメラ、計測用のカメラに受け入れられて行きました。
 このタイプの素子は、撮像素子分の全画素を一度に取り出すことができるので静止画像での垂直方向の解像度が高くとれ、また、帯域圧縮や符号化での画像処理の際に、水平、垂直各方向の解像度のバランスが良くなるという特徴があります。
 模式図を左に示します。構造はインターライントランスファ型CCD(IT-CCD)とほぼ同じですが、違いは転送部が1つの受光セルに対して3つの電極に対応していて3相による転送方式を採用していることです。この方式の採用によって全画素を一気に垂直転送路に送り出すことができるようになりました。シャッタ機能もインターライントランスファ型と同じように電子シャッタを切ることができ、なおかつ全画素同時期のシャッタリングが可能であるため解像度が高くて効率の良い電子シャッタを有する撮像素子となりました。ただ、問題点もあります。全画素を一度に読み出す関係上、受光電荷が垂直転送部や水平転送部から吐き出されるまで素子上に留まっている滞留時間が通常のIT-CCDより長くなり、スミアが出やすくなります。SVGAタイプのプログレッシブスキャンCCDの画素では1,280 x 1,024画素あり、1,024個の電荷が一度に垂直転送部に移されます。これを、例えば20MHzのクロックで水平転送部から読み出したとすると、全ての読み出しに65.536msかかることになります。インターレース方式のIT-CCDでは、525本の半分の262.5本が1/60秒の間に移動しますから、プログレッシブスキャンタイプのCCDは3.93倍も長く撮像素子上にいることになります。従ってプログレッシブスキャンCCDは、電子シャッターで短い露出時間を切るとスミアの出る可能性が通常のIT-CCDより多くなることがわかります。プログレッシブスキャン型CCDを使う場合は、この特性を知って電子シャッタの設定や照明の選択をする必要があります。
 また、デジタル一眼レフカメラの場合、4,000画素x3,000画素などのような膨大な画素を転送する場合に、その転送時間はかなり長いものになる(約1/10秒)と想像されます。この場合、長い転送時間中に発生するスミアを防ぐため、デジタル一眼レフカメラではフォーカルプレーンシャッタで撮像素子を完全遮光してデータの転送を行っていると考えます。そもそも、一眼レフカメラでは電子シャッタ機能を搭載していません。それだけ複雑な機能を盛り込んで、感度を落としたり解像力を落としてもそれに見合うメリットがないからです。フォーカルプレーンシャッタがこうした問題を解決してくれるからです。また、CMOSタイプのもので電子シャッタ機能の無いデジタル一眼レフカメラでは、フォーカルプレーンシャッタでしかシャッタを行うことができません。
 
 
 
■画素ずらし(pixel shift technology)  (2000.08.09)(2008.06.08追記)
 カラー撮像カメラのように2枚以上の撮像素子を使用している場合、撮像素子を水平方向に1/2画素分ずらすと空間情報が補間できて水平解像度を上げることができます。これを「画素ずらし」といいます。
 インターライントランスファ型CCDは、垂直転送部やオーバーフロードレイン部が撮像素子面に配置されている関係上、受光部を撮像面上にびっしりと詰めて配列できないために飛び飛びに配置されています。その欠点を逆手にとって他のCCDを受光部のない位置に配置し、この画素で信号を補ってやれば水平方向の画素を実質的に2倍近くに増加させることができます。
 この方法によって、41万画素560TV本の性能を持つCCDを用いて800TV本近い解像度を得るようになります。この数値は、放送規格用のテレビカメラの目安となるものです。この性能が出れば、現行のアナログNTSC放送信号に乗せて放送できる水準となります。
 CCDの1画素の大きさは、通常5〜7um程度なので素子をずらす範囲はこの半分の2.5〜3.5um程度となります。簡単に2.5umと言いますが、この値は結構シビアな位置精度です。それに加えてCCD 自体の寸法精度や、素子の面精度、画素精度にもかなりの性能が要求され、数ミクロンオーダーで素子を光学部品に張り合わせる技術が必要となります。ちなみに、3板CCDカメラの場合、ダイクロイックミラーにCCD撮像素子を張り合わせる精度は、X,Y,Z軸方向がそれぞれ±0.1um、アオリの角度、回転角度(α、β、θ)がそれぞれα = β = ±7.2秒、θ = ±0.9秒が要求されます。
 RGB3板カメラを使って素子をずらす場合、G(緑)の素子をずらします。ハイビジョンカメラ(HDTV用カメラ)のように高精細度のCCD素子が作りにくい場合は、4板式カメラといって、G(緑)の素子を2つ使う(R,B,G1,G2)方式が開発されています。
 また、CCD1枚を用いた画素ずらしも考え出されています。この方法は、レンズと撮像素子の間にプリズムを置く方法や、素子を圧電素子を使ってメカ的に動かす方法が考え出されています。この方式の場合、1画面のメモリ(フィールドメモリ)によって画像を蓄えて電子的に画像を再構築する必要がでてきます。
 
 
 
■ 3板CCD素子(3CCD) (2008.05.29)(2008.06.08追記) 
 3板CCDカメラは、カラーカメラの最も基本的なレイアウトです。このレイアウトでは、3つのCCD素子を使ってカラー情報(R.G.B.)を得ています。現在のビデオカメラのラインナップから見ると、3板CCDカメラは豪華な感じを受けます。しかし、現在主流になっているカラーフィルタ式単板素子が普及する1990年頃までのカラーカメラと言えば、3板もしくは3管が一般的でした。現在のほとんどのカラーカメラは、ベイヤーフォーマットによる1枚のCCD(カラーフィルタ式単板素子)を使っていて、1枚の素子からカラー画像を得ています。しかし、高画質が求められる放送局のテレビカメラには、依然としてRGBによるカラー三原色画像が得られる3板CCDカメラが使われています。
 
【3色分解手法】
 3つの撮像素子を使って赤(R)、緑(G)、青(B)の3波長の独立した色映像を撮る方法は、撮像管時代から行われていました。テレビ放送がカラー化された時代からこの方式があったのです。さらにさかのぼって、映画カメラに目を向けてみても、カラーフィルムが発明される1950年代までは、3本の35mm白黒フィルムをカメラのマガジンに詰めて3本のフィルムを同時に駆動させ、カメラレンズからの入射光をビームスプリッタで分けて3色分解撮影をしていました。
 米国テクニカラー社(Technicolor Motion Picture Corporation、1915年設立)が開発したカラー映画撮影システムは、映画で初めてカラー上映を可能にしました。テクニカラー社の映画は、それまでの白黒映画と区別して「総天然色」と呼ばれていました。総天然色の「総」がついているのは、1917年に開発された最初のカラー映像は、3色ではなく2色(赤と緑)による色づけの「天然色」だったからです。テクニカラーは、完全な天然色ですよ、という意味で「総天然色」と呼ばれました。2色を使った「天然色」は、緑と赤を色分解して1つのフレーム内に2画面分割して撮影し、上映時に緑と赤のフィルタをかけてスクリーン上でに合成して上映していました。今となっては変な色合いだと思いますが、曲がりなりにも色がついていたので「天然色」と名付けられていたのです。2色などとケチくさいことを言わず3色にすれば良いと思いますが、はっきり言えば、3色に分解する技術が当時なかったのです。現在はダイクロイックミラーという効率のよい色分解フィルタがありますが、当時はコーティング技術さえなく、ビームスプリッタは光を半分に分けることで精一杯だったのです。テクニカラーの三色分解は、従ってビームスプリッタで分かれたアパーチャそれぞれに、「緑」と「青と赤(マゼンタ)」を透過するフィルタをつけていました。マゼンタフィルタが付けられたアパーチャ部には、青成分と赤成分を撮影するフィルムが背中合わせになって露光されるようになっていました。2ロール分の背中わせフィルムは波長感度の違う2種類の白黒フィルムが使われました。それは、青に感度を持つオルソグラフィックフィルム(歴史的にみると最初にできた白黒フィルム、初期のフィルムは赤に感度がなかった)と、赤に感度を持つパンクロマチックフィルムでした。このカメラに使われたレンズは、ビームスプリッタがレンズとフィルムの間に入るので、バックフォーカスの長いレンズが必要でした。このために、当時、レンズ製作で有名であった英国のTaylor-Hobson社(後のCooke社)にテクニカラー用レンズの製作を依頼し、f30mm〜f140mmのレンズを取りそろえました。広角レンズは、設計が難しかったそうです。ビームスプリッタで分けられた光学系は当然暗くなるので撮影にはたくさんの照明が必要でした。
 こうして1922年より、3色分解による本格的なカラー映画が作られ始め、「十戒」(1923)、「ベン・ハー」(1925)に使われました。究極の作品は、ディズニーアニメーションの「白雪姫」(1937年)、「オズの魔法使い」(1939年)、「風と共に去りぬ」(1939年)で、これらの作品はカラー映画のすばらしさを決定づけました。全盛期のテクニカラー映画は、作風もさることながらカラー描写の見事さによって歴史に残るヒット作となりました。ちなみに、テクニカラーは、1950年にKodak社が開発した35mmカラーネガティブフィルムの登場によって(1本のフィルムで3色分解された画像を記録できるため撮影とプリントが楽になり)衰退の一途をたどり、1950年代後半にはKodakカラーフィルムにその座を明け渡してしまいました。テクニカラー映画は、撮影と現像にたくさんの労力とお金がかかりました。カメラが大きく、色分解をするので照明がたくさん必要で取り回しが大変でした。コダカラーは、その点取り回しが格段に楽だったのです。テクニカラーの衰退と共に、「総天然色」という名前も色あせて、「カラー」が日本語の市民権を得るようになりました。
 撮像管の時代のカラーカメラと言えば、下の図に示したような三色分解の光学系に3つの撮像管をつけたものが一般的でした。カラーテレビ放送は、米国で1953年に始まります。日本では1960年に始まりますが、家庭にカラー受像機が普及して本格的になるのは1970年頃だと記憶しています。当時(1960年〜1990年)のカラーテレビカメラは、一つの撮像管でカラー情報を得ることが困難な時代でした。CCDカメラの時代になってもカラーカメラの3色分解手法は踏襲され、3板CCDは高級カラーカメラの代名詞として使われていました。

  

 
【ダイクロイックプリズムの機能】
 3板CCDカメラに代表される3原色分解の光学系は、上図に示すような構造を持っています。複雑な形状をした3個のプリズムと多層膜コーティングを施したダイクロイックプリズム(dichroic prism)によって、光を効率よく波長別に分解しています。このプリズムは、プリズムの合わせ面にダイクロイックミラーを用いています。ダイクロイックミラーは、フッ化マグネシウムや酸化シリコン、酸化チタン、硫化亜鉛などの薄膜で光の干渉作用を利用して希望する波長を透過・反射するものです。メガネのコーティングやレンズのコーティング面を見ると、うっすらと紫や緑などの反射光が認められると思いますが、そうした蒸着による薄膜生成を幾重(20層〜30層)にも重ねて光の波長レベルの薄さの層を形成すると、光の吸収損失を低く抑えて希望する波長を反射させ残りの光(補色)を透過させるようになります。プリズムは、波長選択された光を全反射によって希望する素子に到達させる働きを持ちます。一般的なダイクロイックプリズムを使ったカメラ光学素子は、初段のプリズム貼り合わせ面で青色を反射し、残った緑と赤成分のうち赤色成分を2段目のプリズム面で反射させます。素子の前にトリミングフィルタを入れるのは、さらに波長選択を良くした光を撮像素子に入れるためです。プリズムの材質には、双眼鏡で使われている光学ガラス(BK7)が使われ、各プリズムの光学パスが等しくなるように設計されています。プリズムの製作はかなり難しいものだと言われています。それに加え、ダイクロイックミラーの蒸着、CCD素子の貼り合わせなどすべての工程において、サブミクロン領域の製作・組み立て精度が要求されます。1枚の撮像素子でカラー画像を得る方式よりも遙かにコストがかかることが理解できます。
 
 3板CCDカメラは、現在一般的になっている単板式カラーフィルタ式CCDカメラとどのような違いがあるのでしょうか。
その特徴を以下に示します。
 
【利点】
 1. 偽色(color artifact)が起きない。
 非常に精度よく配置された撮像素子においては、1画素の
色情報を忠実に拾うことができるので、2x2画素(4画素)
もしくは3x3画素(9画素)に渡って色情報を集める単板式
カラーフィルタCCDに比べて原理的に色のにじみとボケがない。
 2. 解像力が高い。
3つのCCD素子を使っているので、精度良く光学系が組み
上がって正しい貼り合わせができていれば解像力の高い
画像を得ることが可能。画素ずらしという手法を使うと
解像力が2倍にアップ。
 3. 感度が高い。
 ダイクロイックプリズムにより希望する波長成分のほとんどを
撮像素子に送ることができる。
 単板カラーフィルタCCDは、構造上1/3以下の光しか光を受光
できない。
 
【欠点】
 4. 製造に高度の技術が必要。
   プリズムの製造、ダイクロイックフィルタの製造、貼り合わに高度の技術が
   必要。高価になる。
 5. カメラサイズが大きくなる。
   3つの撮像素子を利用し、ダイクロイックプリズムを内蔵するので大きくなる。
 6. カメラレンズにダイクロイックプリズムに対応したものが必要。
   フランジバックの長い専用レンズ。及び色補正の考慮されたもの。
 7. 高価。
 
こうした理由により、現在のところ3板CCDカメラは放送局用や顕微鏡などの計測分野での使用がメインとなり、高速度カメラなどの計測カメラを含めデジタル一眼レフカメラでは、カラーフィルタ式単板素子が使われるようになっています。
 
 
 
■カラーフィルタ方式CCD素子( Bayer Filter, Color Filter Array)
 カラーカメラのオーソドックスなものは、上に述べた3板CCDカメラです。これは、RGBの三原色にそれぞれCCDカメラを置いて、3つのCCDカメラで色情報を採取してカラー画像を合成する手法です。3板CCDカメラは、素子を3つ用いて、これをダイクロイックミラーと呼ばれる三色分解光学系にくっつけて作られるカメラですから、価格も当然高いものになります。
 よりシンプルな撮像素子でカラー撮影を可能にしたのが、1枚のCCD素子上にマトリクス状のカラーフィルタを張り合わせたものです。各画素には一つのカラーフィルタが割り当てられていて、相互に色情報を補い合ってマトリクス計算により各画素の色を特定するという方式をとっています。これは、BAYERフォーマットと呼ばれているものです。このベイヤーフォーマットは、1960年代Kodak研究所にいたBayer博士が考案し、特許を取得したフィルタ処理によるRGBカラー画像構築手法です(Bryce E. Bayer、登録番号:3971065[1976年7月20日]、題目:Color Imaging Array、出願者Eastman Kodak)。
この方式は、CCDカメラ用ではなく、銀塩カラーフィルム開発の一環で考案されたようです(1960年代は、CCDカメラもなければテレビ撮像管も発展途上にあり、カラーカメラは3管式が主流でした)。しかし、フィルム感光材料の分野では、フィルム面上に三層の感光膜(シアン、イエロー、マゼンタ層)を塗布する技術が確立したため、Bayer氏が考案したフィルタアレイは写真の分野からはなくなりました。
 Bayer博士の考案したRGB方式のカラー撮影手法は、1993年にパテントが切れたために日本のデジタルカメラメーカがこぞって採用をはじめ一般的になりました。
 Bayer氏が考案したアレー状カラーフィルタ方式は、R.G.Bの市松模様を基本原理としていましたが、テレビカメラに使うには、つまり、インターレース方式のカメラに採用するにはいろいろな問題点がありました。このタイプのCCD素子は、インターレース方式を使わないデジタルカメラによって最終的に脚光を浴びるようになります。インターレース方式のCCDは2フィールドで画面を構成するために、上に示したようなアレイではフィールド間に入ってしまい、色を作る際に1/60秒の時間的ズレがあったりで都合の悪いものでした。また、R.G.B.方式のカラーフィルタは色再現性が優れているものの、光の分離が効率よくなく(白色光の1/3しか各フィルタに入らないため)、低感度という問題を抱えていました。感度の点では補色フィルタ方式(シアン、イエロー、マゼンタ、それに輝度信号を得るためのグリーンフィルタを用いた方式)の方が効率のよいカラー画像が得られました。1983年、松下電器は、インターラインCCD用のカラーフィルタを用いてフィールド単位でカラー画像が得られるシステムを提案しました。Bayerフォーマットの特許が切れた今日では、発色性の良いBayerフォーマットが単板式のビデオカメラの主流になっています。
 
 上右図にBayer式カラーフィルタの原理を示します。基本的なレイアウトは、素子の左上が赤のフィルタで始まることです。色情報は、4つの画素に囲まれた真ん中に仮想の画素を設けます。仮想画素のまわりの4つの実際のフィルタ付き画素は緑(G=Green)の画素2つと赤(R=Red)、青(B=Blue)の画素それぞれ1つで構成されます。緑の占める割合が多いことがわかります。これは人間の視感度が緑に対して効率が良いためCCDフィルタも余分に光を与えてバランスを取っているためです。図の仮想画素Pxに注目してみましょう。Pxのカラー情報は、近傍の画素のカラー情報からマトリクス計算によって得られるのですが、
 
  緑(G)は、近傍のG7とG10を足して2で割る。
  赤(R)は、R11を優先してその周りの赤色情報も加味する。
  青(B)も赤と同様の処理をする。
 
という形で任意のセルの色を特定していきます。式で表すと以下のようになります。
 
   P green = (G7 + G10)/2  ・・・(Rec -6)
   P red = (9・R11 + 3・R3 + 3・R9 + R1)/16  ・・・(Rec -7)
   P blue = (9・B6 + 3・B8 + 3・B14 + B16)/16  ・・・(Rec -8)
 
この手法が本当に現実の色を再現しているかどうかは議論のあるところですが、簡単に彩色できるという画期的な方法ではあります。現在のデジタルカメラは、ほとんどすべてこの方法によっています。
 
 
■ モアレと光学ローパスフィルタ(Moire, Optical Low Pass Filter)  (2008.05.09)(2008.05.14追記)
 個体撮像素子の画像に現れる特徴の一つにモアレ画像があります。非常にきめの細かい対象物を写したときに、細かい対象物のピッチが撮像素子の画素ピッチと干渉し、本来の画像とは異なる濃淡画像が現れます。これをモアレ画像と呼んでいます。テレビなどで、キメの細かいネクタイや、窓のブラインド、チェックのシャツなどが映し出されると色がにじんだり濃淡が変化して見えることがあります。これがモアレ画像です。モアレ画像は、見た目に見苦しいばかりでなく、間違った情報を与えるのでこれを除去することが大きな課題となっていました。ただ、モアレ対策が熱心であったのは、放送業界やデジタル一眼レフカメラに代表される画像品質にうるさいマーケットであり、計測分野ではこうした対策をたてているカメラは多くは見かけません。なぜ、そうした傾向があるのかはさだかではありませんが、計測用のカメラは画像にあまり作為的な処理をしたくないという要求があるように思えます。画像処理は、目的に応じて個別に行なわないと希望する情報が消されてしまい、撮影側に知らされずに化粧された画像が作られてしまう懸念があります。計測カメラを使う研究者たちはそれを嫌います。撮影側に問題があってもそれを熟知して対応したほうが、計測機器として信頼して使えるからです。新しい概念で作られた3層CMOS固体撮像素子(米国Foveon社のX3、SIGMA社のデジタル一眼レフカメラに搭載)では、素子の構造上光学ローパスフィルタは必要ない、として取り付けてないカメラもあります。
 モアレ画像を除去する方法は、以下の4種類があります。現在の所、1.の水晶板を使った方法が一般的です。
 
  1. 水晶板を使う方法 - 結晶硝子の複屈折を利用して、高周波成分を鈍らせ干渉を起こしにくくする。
              水晶板の厚さによって、鈍らせる周波数を変えられる。
  2. レンチキュラを使う方法 - かまぼこ型円筒レンズを多数平行に配列して配置。
  3. 位相フィルタを使う方法 - 位相を変える透明薄膜をストライプ状に形成。
  4. クリスチャンセンフィルタを使う方法 - 特定の波長に対し、散乱する物質を液体中に分散
 
■ 水晶板ローパスフィルタ
 CCDなどの固体撮像素子に用いられるモアレ画像対策では、水晶による結晶板で作られたローパスフィルタ(Low Pass Filter)を撮像素子面の前に取り付ける方法が最も一般的です。水晶結晶板を使ったローパスフィルタは、撮像素子のピッチの2倍以下の成分( = 2画素分以下)の情報をカットします。カットすると言うと何となくシャープな感じを与えますが、実を言うとボカしているのです。結果的に高周波数成分を通過させない(霧散させてしまう)ことになります。このフィルタは、たとえば、12um x 12um の画素を持つ素子であれば、素子上に投影される画像情報の24um以下のものを通過させない機能を持ちます。一般的に考えると、カメラで得られる情報は、撮像素子の大きさまで記録されると考えがちですが、モアレ対策のためにローパスフィルタを組み込んだ固体撮像素子では、画素サイズの倍の大きさ以上の解像力しか持ちえないことになります。簡単に言えば、像の錯乱円を光学フィルタによって2画素x2画素(4画素)程度に決めてしまう方法です。素子の1画素が12umx12umであれば、φ34umの許容錯乱円にすることになります。光学ローパスフィルタは、「牛の角を矯める」やり方と似ていますので、選択を間違えるとやけに惚けた画像になってしまうことがあります。要するに、水晶板によるローパスフィルタ効果は、フォーカスを少し甘くしてモアレが出なくするということです。
 水晶板は、方解石などと同じように複屈折効果を持っていて、これに入射する光は常光線(ordinary ray)と異常光線(extraordinary ray)に分かれます。この2線は、結晶構造の光軸に対してある角度(水晶の場合、44.83°)を持たせて光を入射させた場合に最も分離(d)が大きく現れます。2つに別れた光は、結晶板中を通過していくので、結晶板が厚ければそれだけ分離巾が大きくなります。結晶板の厚さ(t)と2線の分離巾(d)の関係は以下の式で近似されます。
 
   d ≒ t・(ne2 - no2)/(2・no・ne)    ・・・(Rec -9)
       d: 2線(水晶板中の常光線と異常光線)の分離巾
        t: 水晶板の厚さ
        ne: 常光線の屈折率
          (λ= 589.3nmの時1.5534)
        no: 異常光線の屈折率
          (λ= 589.3nmの時1.5443)
 
 この式から、画素ピッチ分の分離巾(d)を得る水晶板の厚さを割り出すことができます。画素ピッチは、6umから12umが多いので、上の式を用いてこれらの素子に使われる水晶板の厚さを求めると1mm〜2mmになることがわかります。
 実際の光学ローパスフィルタは、3枚の水晶板を張り合わせて使用されています。なぜ三枚使用するかというと、一枚の水晶板だけでは1方向の周波数成分しかカットできないため、2成分(縦方向と横方向)の高周波成分をカットするためには2枚の水晶板が必要になるからです。ただ単に2枚を重ね合わせても、1枚目の水晶板を透過した複屈折光線は偏光がかかっているので、そのまま水晶板を重ねても効果がありません。偏光がかかった光線を一旦もどして(円偏光にして)2枚目の水晶板にいれるために、偏光を変える1/4波長水晶板を2枚のローパスフィルタの間に入れます。このようにして、固体撮像素子の光学ローパスフィルタは構成されています。実際の光学フィルタは、右図に示したように、赤外/紫外カットや反射防止を考慮した複数枚の光学ガラスとフィルムを張り合わせてできています。
 
■ 偽色(ぎしょく、color artifact) (2008.11.29)
 ベイヤーフォーマットを使った単板撮像素子では、前述のモアレとともに色ズレの問題が発生します。この色ズレは、偽色(ぎしょく)と呼ばれています。ベイヤー方式(モザイクフィルタ方式)では、色の決定に4画素もしくは9画素を使うために、非常に細かい画像パターンが撮像素子に入ると、正確な色が特定できずに誤った色が発生します。つまり、偽色は、明るくて細かい画像や、明るい対象物の輪郭部分に本来の色ではない色が現れることを言います。偽色は、モアレ同様、ローパスフィルタを用いることにより緩和され、自然な色が作られます。当然、解像力は物理的画素数の半分以下になります。
 なお、日本のWebサイトの多くに、偽色をfalse color(フォールスカラー)とあてているのを見かけますが、これは間違いです。False Colorは、本来、別の意味があり、日本語では擬似カラーと訳されているものです。False Colorは、米国コダックが、1960年代に赤外カラーフィルム(Kodak Ektachrome Infrared Aero Film, Type 8443)を開発してから使われるようになった言葉で、この時代から急速に普及しました。False Color は、モザイク画像のCCDよりもずっと前にできている言葉です。しかも、その言葉の意味は、CCDで起きる偽色とは全く異なったものです。赤外カラーフィルムは、赤外領域(700nm〜900nm)に感度を持ったフィルムで、人間の目には見えない赤外部を赤色にあててカラー写真を得るものです。従って、本来人間の見える色(true color)とは異なった発色画像となっています。赤外写真は、本来軍需用に開発が進められ、1910年代の第一次世界大戦から出発しました。もちろんその当時は白黒写真でした。擬似カラー写真は、ベトナム戦争でゲリラが原野や山林に偽装して潜伏しているのを発見するために、これを行う航空写真撮影に多様されました。木々の葉や草は、活性が良いと赤外線を多く反射するので、擬似カラー写真で見ると真っ赤に見えます。偽装されたアジトは、赤く写りません。こうしたことから、擬似カラー写真は、航空機や衛星から地上や海域を探査するツールとして、リモートセンシング分野でよく使われるようになりました。
今述べたことから、False Colorは、CCDの画素による偽色とは似ても似つかない性質のものであることが理解できましょう。
CCDやCMOSを扱う米国の専門家たちは、従って、素子の偽色のことを Color artifact と呼んでいます。同じような言葉に pseudo color(スードカラー)があります。この言葉は、白黒画像を濃度に応じて加色する場合に使う言葉です。画像処理分野でよく使われています。
 
■ 三層カラーCMOS素子(Foveon X3 CMOS) (2008.05.15)(2008.05.17追記)
 多くのカラーカメラが、先に紹介したBayerフォーマットのマトリクスフィルタによる単板素子を使っているのに対し、カラーフィルムの構造と似たような3層(R、G、B)縦配列(垂直配列)による受光素子を作ったメーカがあります。そのメーカは、Foveon(フォビオン)(米国カルフォルニア州、1997年創設)と呼ばれる会社で、2002年にこの素子を開発しました。この素子は、日本のレンズ・カメラメーカのSIGMAで採用されて、SD9カメラ(現在、2008年は、SD14)に搭載されています。
 この素子はCMOSであり、CCDではありません。本来ならば、CMOS素子の項目で説明すべきものですが、固体撮像素子のカラー撮影という関係でこの位置で説明します。CMOS素子については、「撮像素子 - - -CMOS(Complementary Metal Oxide Semiconductor)素子」を参照ください。
 Foveon X3 素子は、高精細のデジタル(一眼レフ)カメラ用として開発されたようです。この素子は、実にユニークです。一般的な Bayer 方式の単板撮像素子は、2次元状に広がった画素単位の色情報をかき集めて色を構成するので、1画素単位で変わる細かい色情報に関しては色を正確に特定することができず、偽色(color artifact)が発生します。三層縦構造カラー素子のFoveon X3は、原理上そうした不具合が起きません。一画素で色が決定されるからです。Foveon社の開発した素子は、1つの画素から直接色情報を得るので、周辺の画素から色情報をかき集めて処理を行うBayer素子と区別させるために Direct Image Sensorと呼ばせています。Bayer素子では2画素〜4画素の色情報(空間的には4画素〜9画素の範囲)から色を特定するので、その間で変化してしまう色に対しては手の施しようがなく、光学ローパスフィルタによってその弊害を抑えることになります。これに対し、3層縦構造のカラー素子ではこと色情報に関してはフィルタを入れる必要がありません。
 Foveon X3素子は、光学ローパスフィルタ装着の必要性がないとメーカが主張しているのに対し、識者の間で少しばかりの論議が続いています。というのは、ナイキストの考えによると固体撮像素子で量子化された情報は、2画素以下の高い信号周波数については偽信号(エイリアシング)が発生することは自明だからです。おそらく、Foveon X3素子を使ったカメラでは、画像を構築する際に色信号に対してはほぼ問題ないとしても輝度信号に対しては画像処理( = グラフィックエンジン)によってアンチエイリアシング処理(偽信号を除去すること)を行っているはずです。偽信号処理を行うにあたり、色情報と輝度情報の2つを考慮しなければならないBayerフォーマットの素子に比べて、Foveon X3では色情報については原理的に補正しなくて良いわけですから補正もやりやすいのだろうと思います。確かにFoveon X3で撮影されたサンプル画像を見ると、髪の毛の表現や砂地状の地肌がきれいに再現されています。
 Foveon X3 素子の構造は、シリコン半導体の波長透過特性を巧みに使っています。つまり、シリコン半導体の膜厚の深さによって吸収する波長が変わることを利用して、膜厚の薄い表面近辺(0.2um厚)では青色の吸収が多いのでここを青色検知層とし、一番深い所まで届く赤色に関しては、最下層(2um厚)で赤色を検知しています。一つの半導体の薄膜とサブミクロンオーダの信号取り出し口の生成技術で3つの色を取得しているのです。この方法は、フィルムのカラー感度層構造と似ていると言われていますが、厳密に言うと違います。銀塩フィルムの3色感度層は、【光の記録原理 その3 - - - 2次元記録(銀塩フィルム)3原色感度層】で述べているように、各層にはカラーセパレーション用のフィルタが入っています。これに対して、この撮像素子では R.G.B三色の明確な分離はなく、シリコン半導体の膜厚だけを頼りに3色の色情報を得ています。
    シリコン半導体は、厚さ方向に対して波長の透過性能が変わり、浅い位置で短い波長成分が吸収され、深い部分で長い波長成分を吸収する。この性質を利用して、Foveon X3素子は、受光部の厚さ方向で3波長の色情報を取り出している。
    参考:Richard F. Lyon, Paul M. Hubel, Foveon, Inc. ,"Eyeing the Camera: into the Next Century", 2003 Bayer素子が平面的に色情報を収集するのに対し、Foveonは垂直に色情報を収集する。従って、Foveonは色のにじみがない。
     
     2008年5月現在の Foveon X3 素子は、2,268画素x1,512画素(9.12um画素サイズ、20.17mmx13.8mm素子サイズ)のものが販売されています。この素子の窓数は、3.43M(343万個)ですが、Foveon社は、1つの窓にR.G.B.の3種類の信号が取り出せることを根拠に、画素数を窓数の3倍である10.3M画素(相当)であるとしています。Bayerフォーマットの撮像素子が、光学ローパスフィルタを入れているにもかかわらず物理的な素子の数でカタログをにぎわしていて、画素数が多いのが高性能であるという風潮にしているので、それならば我々の素子は3倍の画素換算にしますよ、と言っている感じを受けます。客観的に見ると、3板固体撮像素子のような扱いで良いように感じます。
     このタイプの素子は、一眼レフデジタルカメラで市販化されてかなりの評価を得ているようです。しかし、計測カメラ用としてはあまり使われていません。このFoveon X3のシャッタは、ローリングシャッタという電子シャッタを内蔵しており、インターライントランスファ型CCDのような全画素同時の電子シャッタではないために、計測用としては使いづらいかも知れません。感度についても格段に優れているようには紹介されていません。詳しいことはわかりませんが、受光部での量子効率があまりよくないのかもしれません。想定される理由として、青色検出領域であるシリコンの浅い部分では、他の色成分も検出してしまうので、最終の赤色部分の色情報を得て逆算するような方式になっているそうです。それが影響しているのかも知れません。
     
     
     
     
    ■ QE(Quantum Efficiency、量子効率) (2003.09.06)(2008.06.08追記)
     計測用CCDカタログを見ると、カメラの感度を示す指標としてQE(量子効率)という説明が見受けられます。QEというのはどういうものなのでしょうか。この言葉は、おそらく一般のビデオカメラのカタログには登場しない単語だと思います。この単語は、フォトン(光子)を扱うような微弱光領域でカメラを使用する場合に、カメラの感度性能の一つの目安になるものです。ですから、この領域に使うカメラの性能表にはよく登場します。
     QEは、Quantum Efficiencyの略です。Quantumは物理学用語で「量子」を表します。量子はエネルギの単位であり、エネルギの塊を示すものです。自然界は連続的な物理量を持っていると思いがちですが、原子レベルでのエネルギー量を見てみると一つ一つの塊となっていることがわかっています。光子(フォトン)」は、光エネルギーの塊です。量子は電子の振る舞いから体系づけられた学問で、量子エネルギは原子を取り巻いている電子がその準位を換えることで、放出がおきたり吸収が起きることがわかっています。電子は原子の回りをある準位で回っていて、その準位は軌道と呼ばれている値をとるため、勝手に運動することはできません。ちょうど太陽系を回っている惑星が一定の軌道で周回し、任意に距離や周回速度を選ぶことができないのと似ています。太陽系の惑星の場合は、惑星の質量と太陽の質量の互いの引力によって互いの距離と周回速度が求まります。原子の場合には、電子の電荷と原子核の電荷によって電気的に位置が決められます。これはボーア(Niels Henrik David Bohr:1885.10〜1962.11、デンマークの物理学者。1922年ノーベル物理学賞授受) が考えた理論で、電子は原子核の回りを一定の軌道で回り、外部からエネルギを受けると一つ外の軌道に移り、また、エネルギーを放出するときは内側の軌道に移るというものです。軌道が決まっているので電子が放出するエネルギーは不連続の値、つまり、塊として成立するようになります。光子の場合には、先にも述べましたように、以下の式になります。
     
      E = hν  ・・・(前述)
         E:光のエネルギー(J)
         h:プランク定数、 6.6260755 x 10-34 J・s
         ν:光の周波数 = c/λ
         c:光速、299792.458 km/s (真空中)
     
     
     固体撮像素子で述べているQEは、
      『光子が1個到来したときに、その光子が1個分の電子または正孔が信号出力に寄与したとき1(100%)と定義する。』
    というものです。すなわち、上で述べた光子1個が固体撮像素子のセルに入射したとき、1個の電荷が発生してそれが信号出力として寄与すれば量子効率100%となるというものです。 
     実際には、予め出力エネルギのよくわかった単色光を固体撮像素子に照射し、そこから得られる発生電流を測定して量子効率を求めます。式で表すと以下のようになります。波長λ[nm]の光が毎秒W[W]のエネルギで固体撮像素子に入射したとすると、その時の光子の数Np[個]は、
     
      Np = W/Ep = W・λ/h c  ・・・(Rec -10)
          Np : 入射する光子の数
          W: 入射する光のエネルギー
          Ep:入射する光子1個のエネルギー
          λ: 入射する光子の波長
          h : プランク定数
          c: 光速度
     
    となります。電子1個の電荷はe[クーロン]あり、一秒間に流れた電荷量で電流[A = アンペア]が求まるので、量子効率1(100%)での発生電流は、以下の式となります。
     
      Ip = e Np  ・・・(Rec -11)
          Ip : 量子効率100%での発生電流(A、アンペア)
          e: 電荷(クーロン)
          Np :入射する光子の数
     
    この理論的な効率100%での電流値と実際に計測した電流 Ic の比を取ってやれば量子効率が求まります。
     
      η = Ic / Ip = Nc / Np = 1240 x Ic /(W・λ)  ・・・(Rec -12)
          η:量子効率 QE
          Ic:測定電流
          W:入射する光のエネルギ
          λ:入射する光の波長
     
    上式を元に、量子効率ηを1とした時、入射エネルギWに対する出力電流の比、すなわち感度は以下の式で表されます。
     
      Sη=1 = Ic / W = λ / 1240  ・・・(Rec -13)
     
    Sη=1 は、分光感度で、単位は、[A/W]で表されます。値が小さいので、[μA/μW]で表すこともあります。1240という値は、光と電子を扱う世界では重要な数値です。発光ダイオードも半導体レーザも、X線発生も電圧と光の波長の関係式にこの値が出てきます。この数値は、h c/eによって求まる値です。上式を見ると、感度は波長が長いほど入射エネルギに対する出力電流が高いことになります。多くの固体撮像素子では、ηを100%、50%、30%、10%についてプロットし、これに実際の素子の感度を重ね合わせて図にまとめ上げています。
     
     
     
     
    ■ ショットノイズ(shot noise)、フォトンノイズ(photon noise)  (2006.07.13)(2008.06.08追記)
     微弱な光を扱っている時に、無視できなくなる光ノイズを、ショットノイズとか、フォトンノイズと言っています。ショットノイズは、電子などのノイズを言及するときに主に使われる言葉で、これに対しフォトンノイズは、光に関するショットノイズを指すときに使われる言葉です。揺らぎとも言っています。光(フォトン)は、いつも一定の割合で電子と相互関係を持つかと言うとそうはなりません。100個のフォトンが入ってきても、100個の光電子が発生するとは限らず、時に50個であったり10個であったりします。これが長い時間で見た場合には平均化されて落ち着くわけですが、短時間でとらえるとかなりのバラツキが生じます。これが画像としてとらえられると、雪が降っているような、あるいは星が瞬いているように見えます。
     ショットノイズは、超高感度カメラを使って、比較的短時間の露光で画像をとらえる時に目立ちます。高感度カメラは、検知する光子数が少ないのでこうした現象が顕著に現れます。
     フォトンノイズの考え方は、ちょうど雨粒を考えると良いかと思います。しとしと雨が降っている中に大きさ10cm程度のコップを置きます。コップに雨水をためるとき、例えば10秒間で雨粒を受けたとすると、おそらく何回測っても、また数カ所で同時に同じ計測をしても量が変わるでしょう。10秒という短い時間では雨粒が数個であったり数十個であったりします。しかし、これを1時間程度受けたとすれば、ばらついて降り注ぐ雨粒が平均化されて、数カ所同時に測っても同じような量を計測できます。フォトンというのはこのような雨粒に似たようなものと考えるとわかりが良いかと思います。ショットノイズは、光子だけでなく熱電子や光電子の振る舞いにも現れます。
      ショットノイズは、基本的に入射する光子数の平方根に比例します。
     
      Sn ∝ √S  ・・・(Rec -14)
         Sn: ショットノイズ
         S: 入射する光子数
     
    上の式は、例えば、100個の光子が入射すると10個の光子は絶えず揺らぎとして認められることを示しています。これは10%に相当します。これが1,000,000個の光子になると揺らぎは1,000個となりノイズの占める割合は0.1%となります。
    従って、フォトンノイズを抑えるには、受光に十分な光子を蓄える手だて(時間)を考える必要があります。降り注ぐ光子は、雨粒のようにランダムに放射していることを理解する必要があります。
     
    ■ 光子の読み出しノイズ  (2007.11.18)
     光子を検出するには、電子に変換させる必要があります。すべての計測には誤差やノイズがつきまといますが光子をフォトマルやフォトダイオード、CCDカメラで計測する場合ノイズ成分は以下の関係式で示されるように各要素から発せられます。
     
    N ∝ √(Nr2 + Nd2 + Ns2 )  ・・・(Rec -15)
    N: 総合読み出しノイズ
    Nr: 回路素子から発するノイズ
    Nd: 受光素子から発する暗電流 = D * T
       D:暗電流(electron/pixel/sec)
       T:検出時間(sec)
    Ns: 光電子によるショットノイズ = √S
          S:光電子 = QE x 入射光子数
     
    こうした、各要素から発せられるノイズを抑えて希望する光子信号を取り出すことが、CCDカメラを含む光電素子製品設計の重要課題となっています。上の式からわかるように、光電素子のノイズはショットノイズだけは避けて通る事ができないので、許す限りの測定時間を長く取って揺らぎ成分を少なくする事が求められます。しかし、必要以上に測定時間(露光時間)を長くすると、発光素子から発する暗電流Nd成分が多くなってしまいます。長時間露光では、このNdを抑えるために光電素子を電子冷却によって暗電流の発生を抑えています。
     
     
    ■ ビンニング(Binning)  (2008.05.15)
     ビンニングとは、画素を複数個集めて1つの画素とみなす画像の取り込み方式です。計測用CCD(もしくはCMOS)カメラで良く使われる手法です。ビデオカメラでは、映像信号が厳しく規定されていて、自由な読み出しができないので使われません。ただし、上で説明した「フィールド読み出し」では、垂直2画素分を1画素として読み出すので、1x2画素のビンニングと言えなくもありません。
     計測カメラで使われるビンニングは、2x2、3x3、4x4などが一般的で、2x2=4画素、3x3=9画素、4x4=16画素分を1画素とみなして画像が構成されます。複数の画素から1画素を構成する場合、受光するバケツ容量が大きくなるのと同じ効果を持つのでたくさんの光を受けることができます。1画素分が大きい撮像素子を仮想的に作ることができます。1画素の大きさが大きくなると、感度が良くなるために微弱な光を検出する場合に使われることがあります。また、この機能では、副次的にノイズ成分も低減します。
     反対に、ビンニングを施すと画面を構成する総画素数が少なくなります。たとえば、640x480画素の撮像素子に2x2のビンニングを施すと、感度は4倍になる反面、構成画素は、320x240画素と少なくなります。読み出し画素数が少なくなるため相対的に読み出し速度が速くなる(1秒あたりの読み出し枚数が多くなる)メリットもあります。
     
     
     
     
      
      
      
     
    計測CCDカメラメーカの先駆 - VIDEK(ばいでっく)社 (2006.09.21) (2007.01.08追記)
     CCDカメラを計測用装置として製品化したのは、米国のKodakの子会社であったVidek社が最初であると記憶しています。
     Videk社は、1987年に右下に示すようなコンパクトなCCDカメラを市販化しました。1987年当時は、CCD素子が8mmビデオに搭載されるようになった時代で、CCD素子がアナログビデオ信号による画像(720画素x480画素相当)の品質になんとか追いついた時代でした。そうした時期に、産業用カメラ分野において、1320x1035画素(1.4メガ画素)を持つCCDタイプのデジタルカメラが開発され市販化されたのです。
     当時、メガピクセルなどというCCD素子はとてつもない画素を持った撮像素子でした。天文分野や分光分析分野で素子を液体窒素で冷やした百万画素のCCDカメラは使われ出していましたが、産業向けの機器としてはまだ先のことように考えられていたのです。
     このカメラの名前は、メガピクセル(100万画素)を凌いだ素子を持ったカメラということで「メガプラス(Megaplus)」と呼ばれました。このカメラは、その後1990年代の計測用分野で固体撮像素子カメラの牽引役を果たしました。
     当時、CCD撮像素子は、テレビカメラ用として大量生産を始めていました。従って、映像の読み出しは当然アナログ信号(デジタルではない)であり、NTSC(もしくはPAL)に準拠したものでした。したがって、1画素の大きさも、現在のように計測に便利な正方格子の四角いサイズではなく、4:3の縦長のものが一般的でした。しかし、Videk社のカメラは、1画素が6.8um x 6.8umと正方格子で、しかも、アナログ信号ではなくデジタル信号として取り出せるカメラでした。明らかに計測目的を意識して開発されたものでした。
     バイデック社のメガプラスは、とてもコンパクトに仕上がっており、業界で大変な評判を呼びました。右下の写真を見ればわかるようにとてもコンパクトです。計測分野では、このカメラが数多く採用されました。
     しかし、残念なことに当時以下の問題点を抱えていました。
     
      1. 開発されたカメラは読み出すまでの機構しかなく、画像
        の取り込みには別途処理装置が必要で、さもなくば画像
        取り込みボードを組み込んだパソコンが必要であった。
        当時のパソコンは、MS-DOS + ISAバスなので、性能は
        よくなかった。メガピクセル(100万画素)の画像を取り
        込むのに時間がかかった。
      2. カメラを駆動する電源部が別途必要であり、カメラは複
        数の電圧源が必要であったので、そのDC電源を作る電源
        部は専用となり、しかも大型(7kg)であった。
      3. トリガタイミングが任意に取れず、欲しいマイクロ秒単
        位でのタイミングの画像がとれなかった。
        カメラ主導でのタイミング撮影は可能であったが、現象
        優先の撮影は不可能であった。
      4. カメラにはメカニカルシャッタが内蔵され、露出時間は
        メカニカルシャッタに依存し、最小1/1000秒程度であ
        った。また画像の転送は、メカシャッタが閉じてから行
        った。理由は、CCD素子がフルフレームトランスファ
        タイプであり、電子シャッタ機能がなかったため。
      5. 従って、取り込みは最大で5コマ/秒程度であった。
      6. 画像の取り込みは、サードパーティの画像ボードメーカ
        に依存した。バイデック社(コダック社)はカメラ単体
        の販売に終始したので、画像ボードメーカがシステム
        を構築したり、ユーザがシステムを構築した。
     
     こうした問題がありながらも、メガピクセルの映像はとても精緻で、1980年代の終わりに発売されたこのカメラの画像を見たとき、フィルム画像の時代ももうすぐ終わりなのかな、と思いました。当然このカメラは白黒で、カラーカメラはありませんでした。当時、コンピュータの性能といえば、OSがMS-DOSであり、メモリも高価で(4MBのRAMを搭載するのがやっとだった)、HDDの容量が小さく(100MB程度が大容量だった)、データ保存は1.4MB容量の3.5インチフロッピーディスクを使うのが主流でした。データ用CDも、ましてやDVDもありませんでした。それに、なによりも、メガピクセルクラスの画像を表示させるモニタがありませんでした。
     こんな時代背景にあっては、メガバイト級の画像を扱うのは並大抵ではありませんでした。当時の画像は、TIFFやBMP、PICTなどの画像ファイルが中心で、GIFなどの圧縮手法による画像フォーマットは産声を上げたばかりでした。
     そうした時代にとてつもないメモリ容量を食う計測カメラが出現したのです。
     
     計測用カメラとして開発されたメガプラスの心臓部のCCDがどのようなものだったのかを紹介します。
     
    ■ VIDEK社メガプラスカメラのCCD
     バイデックに使われたCCDは、フルフレームトランスファ型CCD固体撮像素子を使用していました。この素子はCCD素子のもっとも初期のもので、当時CCDと言えばこのタイプのものが主流でした。1984年に打ち上げられたハッブル天体望遠鏡のカメラもこのタイプで、20年以上経った今でもこのタイプのカメラが使われています。現在主流となっている電子シャッタ機能をもつCCD(インターライントランスファー型)はずっと後になって登場したものです。フルフレームトランスファタイプは画像の転送を受光した画素で行うので、現在一般的になっている垂直転送回路がありません。受光部が転送部になっていました。したがって、逆に言うと、撮像素子上に受光とは関係ない転送部がないので、受光部を大きくすることができ、開口率(Fill Factor)を100%とすることができました。
     
    ・撮像素子: CCDフルフレームトランスファ型固体撮像素子。
    ・画素数: 1340(H)x 1037(V) (1,389,580画素)。
    ・画素寸法: 6.8um x 6.8um --- 一画素あたりの寸法。正方格子タイプ。
    ・撮像素子の有効画面: 8.98mmx7.04mm(アスペクト比4:3) --- 2/3型フォーマットに対応。
    ・デジタル変換: 8ビット(256階調) --- 白黒画像で、階調が256階調であった。
    ・画素転送レート: 10MHz --- 画素を画像ボード(コンピュータ)に送る転送速度。
    ・画像転送レート: 最大6.9コマ/秒(メカニカルシャッタを使わないストロボ使用時)
              10MHzのクロックによって、8ビッドデジタル情報に変換した画素を読み出して
              いくので、理論上の読み出し画像レートは、
                10MHz / 1.38958M = 7.196 コマ/秒
              となるが、画像間の読み出し手順に時間がかかるので、最大6.9コマ/秒となる。
              ストロボを使わずに、CCDの露光時間で行うと露光時間中は転送できないので
              その分、画像転送速度は遅くなる。
              メカニカルシャッタを使う場合もメカニカルシャッタが動作する分だけ遅くなり、
              最大5.1コマ/秒となる。
    ・カメラ電源: 専用パワーサプライ --- 重量7kgと重かった。
    入力電源: AC100V、AC120V、AC220V、AC240Vのいずれかをセレクタで設定。
    入力電源周波数: 47Hz〜63Hz
    DC出力: + 8V デジタル回路用
         + 18V 検出素子用電源
         - 15V 検出素子用電源
         + 11.85V メカニカルシャッタ電源
         - 8V A/D電源
    ・データ出力ピン: D-サブミニチュア37ピン
    ピン数:  37ピン
    デジタルビデオピン 8ピンx2
    デジタルグランド x2
    フレームリセット/露光時間 x1
    モード制御 x3
    ピクセルクロック x2
    ラインデータバリッド x2
    フレームデータバリッド x2
    露光 x2
    予備 x7
    ・カメラ単体の大きさと重さ:76.2(H) x 127(W) x 131.6(D)  1.59kg
    ・使用環境条件: 結露なき条件にて 0〜40℃
      
     1990年代を通して、計測用CCDカメラは普及の一途をたどりましたが、それでもまだ一般のユーザが簡単に使えるという代物ではありませんでした。デジタルはまだまだ高価であり、これを使いこなすにはユーザのレベルもまた周辺機器のレベルも成熟していませんでした。当時、私もなんどかこの種のカメラを扱おうとチャレンジしましたが、親切な画像ボードメーカに巡り会えなかったり、CCDの仕組みがよくわからなかったり、パソコンが十分に使いこなせなかったりと、思うにまかせなかったことを覚えています。
     そうした理由で、1990年代はアナログのビデオ信号出力(NTSC、RS170)を持つアナログカメラの方が当時圧倒的に使いやすく成熟した製品であったことを思い出します。市販で安価にたくさん出回っているビデオモニタを使えばアナログビデオ信号による映像信号を画像として見る事ができて、直裁的で簡便だったのです。画質さえ厭わなければそれで十分でした。
     真のデジタル時代が来るのは2000年以降だと思います。
     
     
     
     
     
    高解像力CCDカメラ(Megaplus)(2000.09.11)(2008.11.28追記) 
     計測用CCDカメラは進化を遂げ、1990年代後半には、4,000x4,000画素のカメラが登場しました。実際に市販された高解像力のCCDカメラについてその性能を調べてみましょう。ここで例に挙げたのは、「メガプラス(Megaplus)」と呼ばれるカメラです。このカメラは、米国Redlake MASD社(1999年まではKodak MASD社。現在(2008年)、米国Roper社傘下、Redlake→PI部門で製造販売)が1980年代後半より市場に出している科学用高解像力CCDカメラの総称です。右のカメラが、Megaplus モデル16.8iと呼ばれるものです。このカメラの特徴は、4000画素x4000画素の撮像素子を持っていて、1秒間に2枚の画像を得ることができました。(このカメラは2004年販売を終了しました。)
     

    【主な仕様】

    ■ カメラ

    ・撮像素子: フルフレーム型CCD(Kodak製)
    ・総ピクセル数: 1680万画素
             4,143 (H) x 4,126 (V) 画素
    ・有効ピクセル: 4,096 (H) x 4,096 (V) 画素
    ・ピクセルフォーマット: 9.0um x 9.0um
    ・画素エリア:  36.8mm x 36.8mm
    ・有効受光面積(開口率、フィルファクター): 100%
    ・シャッタ: レンズシャッタ(カメラではなくレンズに付いているシャッタを使っていた)
    ・シャッタ同期: 内部または外部同期
    ・階調: 8ビット

    ■ ビデオ特性

    ・ブラックレベル: ブラックリファレンスにより補正
    ・ガンマ: 1.0
    ・走査方式: ノンインターレース
    ・同期: 内部同期
    ・ダイナミックレンジ: 48dB以上
    ・ピクセル・クロック速度: 10MHz
    ・フレーム転送速度: 0.5フレーム/秒

    ■ オプション

    ・冷却CCD: 水冷式

    ■ 寸法及び重量

    ・寸法: 113.0(H) x 99.1(W) x 256.5(L) mm
    ・重量: 2.3kg
     
    ●使用レンズ
     上の写真からもわかるように、使用するレンズは一般のレンズではなくローライレンズを使用しています。ローライレンズは、ラージフォーマットカメラ(ブローニーサイズと呼ばれる大判のフィルムでプロカメラマンがスタジオ撮影や風景写真、集合写真に使用)のレンズです。なぜこのような特殊なレンズを使うのかと言うと、CCDのサイズが大きいため(36.8mmx36.8mm、対角線52.04mm)、ニコンのようなライカサイズ(24mm x 36mm、対角線43.27mm)のニッコールレンズを使っても全ての画角をとらえきれないという問題が出てきます。従って、大判カメラのリンホフやハッセルブラッド、ローライ、ペンタックス6x7、マミヤに使われているレンズが必要となるのです。
     撮像素子が大きいと、使用するレンズに制約が出たり、顕微鏡や特殊光学系に接続する場合周辺部のケラレが出る問題が発生します。
     
    ●フルフレームトランスファー型CCD
     先の項目(CCDの種類)でも述べたように、このカメラのCCDはフルフレームトランスファータイプを使用しています。画素が多いタイプでは全画面を画素単位で覆い、インターライン方式のように転送部を設けるという構造はありません。受光した画像も受光画素上で転送するため、転送時には遮光する必要があります。このカメラではレンズに内蔵されているレンズシャッタで被写体から入射する光を遮る方式を採用しています。フルフレームトランスファCCDは、画像サイズに碁盤の目のようにビッチリと受光画素が配置されているため(これを開口率 = フィルファクター 100%といいいます)被写体からの像情報をすべてCCDで取り込むことができます。インターライン方式ですと、撮像素子上に転送部などが配置されるため、その部分は像の情報が無くなってしまいます。これは画像情報に影響を及ぼします。
     
    ●総ピクセル数:
     CCD撮像素子を埋めている画素(ピクセル)の数を示します。この画素が多ければ多いほど高解像力の画像が得られます。反面、大容量のメモリを持ち、画像を受け入れる高性能画像ボード、高解像力、高速表示性能を持ったコンピュータが必要になります。
     
    ●ピクセルフォーマット、画像サイズ、有効受光面積:
     理化学用にCCDカメラを採用するときに重要になる性能です。昨今のCCDカメラは超小型になりつつあり、画像サイズも1/2インチ、1/3インチサイズとなっています。理化学分野から見た場合、ピクセル数は多くて、ピクセルフォーマット(1画素あたりの大きさ)が大きい方が光を受ける面積が大きいので微弱光を検知しやすく有利です。このカメラでは9umx9umのピクセルサイズを持っています。この1画素が4096画素分横一列に並ぶため、画像サイズは、9umの4,096個分、つまり36.86mmとなります。従って、縦・横4,096個分のピクセル配列ですから画像サイズは36.86mm x 36.86mmとなります。
     有効受光面積は受光セル(画素)が画像サイズ全てにわたって受光できる割合を示すもので、開口率とかフィルファクターと同じ意味です。このモデルではフルフレームトランスファーですから、画像サイズ全面にビッシリとピクセル配置され受光を遮る転送部などがありません。画像情報を重視する場合にはフィルファクターが100%のものが要求されます。
     
    ●シャッタ及びシャッタ同期:
     このモデルはフルフレームトランスファー型CCDですから画像の転送は画素の上で行われます。したがって、画像の転送中は遮光する必要があります。カメラによってはカメラ内部にメカニカルシャッタが内蔵しているものがありますが、このモデルでは、カメラではなくレンズ自体にシャッタが内蔵されています。
    シャッタ同期というのは、ストロボ発光装置と同期させて画像を取り込む場合に必要な機能で、同期信号によって照明用のストロボを発光させ、その後に画像を転送する仕組みになっています。このモデルの場合にはシャッタ同期が内部と外部の切り替えができるようで、内部の場合にはカメラからストロボに対して同期信号を出力し、外部同期の場合にはストロボ発光装置から信号をカメラがもらい撮影のプロセスを行います。
     
    ●階調:
     画像を取り込む濃度の巾をさしていて、このカメラの場合8ビット(256階調)の濃度成分を持ちます。
     
    ●ブラックレベル:
     CCDカメラのセルにはいつもノイズによる電荷が貯まっていて、このノイズは情報として不適切なので、8ビットデジタル処理する場合の足切りとして黒の成分の電荷を予め覚え込ませておきます。こうすることにより、有効な電荷成分を8ビット階調に割り当てることができます。通常、このブラックレベル補正は、レンズにキャップなどを施して、暗電流やノイズ成分をプロセッサーに覚え込ませる処置を施します。
     
    ●γ(ガンマ):
     光の入力露光量に対するCCDの受光濃度の傾きを表します。γ=1というのは露光量と濃度が1:1に対応している事になります。数式で書くと光の入力χに対してCCDの受光出力yが y = χγ の関係にある時のγの値を言います。たいていのCCDカメラのγは1のようです。このモデルもγが1です。
     
    ●ノンインターレース:
     インターレースは、NTSCなどのビデオ信号に採用されている飛び越し走査方式で、このモデルでは全ての画素を1回の読み出しで行うためノンインターレース方式になっています。なぜNTSCにインターレースがあるのかは、「高速度カメラQ&A」「Q01. 普段見ているテレビは1秒間に何枚の絵を出してるの?」を参照下さい。
      
    ●ピクセルクロック速度:
     CCDに蓄えられた画像を画素毎にこのクロック速度で転送します。このモデルでは10MHzのクロックで1600万画素(16M画素)の画像を取り出しますから1.6秒かかることになります。これが次に述べるフレーム転送速度の根拠ともなります。
     
    ●フレーム転送速度:
     1秒間に撮影できる枚数を表します。このモデルでは0.5フレーム/秒で2秒に1枚の映像を得ることができます。 
     
    ●CCD冷却
     オプションで水冷機能を設けることによりCCDの温度が一定になりノイズ成分を低減させたり安定します。
    1分以上の長時間露光を行うようなCCDの場合は、電子冷却や液体窒素などを用いた冷却を行うことがあります。
     
     
     
     
     
    新型高解像力CCDカメラ(Redlake社 Megaplus ES11000) (2006.06.24) 
     2005年に、高解像力CCDカメラとして、右に示すような電子冷却型カメラが製品化されました。これは、上で述べたMegaplus モデル16.8iの後継機種にあたるものです。計測分野では、高速性能、短時間露光(電子シャッタ)要求が高いため、フレームトランスファ型CCDでは需要を満たしきれなくなってきました。その要求に応えて開発されたのが、このタイプのカメラです。しかも、電子冷却機能を備えて登場しました。
     このカメラの大きな特徴を以下に示します。
    ・撮像素子が36mmx24mmと大きい(フルサイズ)。
    ・レンズは、ニコンのFマウント用レンズを採用。
    ・電子冷却を採用。ダークノイズ低減。長時間露光可能。
    ・メカシャッタに代えて電子シャッタ方式のCCD撮像素子を採用。
    ・インターライントランスファ方式にもかかわらず
     12ビット濃度(4096階調)を達成。
    ・高画素で高速撮影(〜4コマ/秒)が可能。
     このカメラは、電子シャッタ機能を持ち、しかも12ビット濃度を持つという大きな特徴を持っています。従来、高階調撮影ができるカメラは、電子シャッタを持たないフルフレームトランスファ型CCDカメラが一般的でした。フルフレームトランスファタイプは、構造が簡単で受光部が広く深く取れるからです。従って、電子シャッタ付きの高精細、高濃度カメラは2005年あたりからの市販化できるようになった技術のたまものであり、大きな撮像素子を均一に冷やす冷却型のCCDで、なおかつ最新のデジタル処理技術がなければできないことでした。
     このカメラは、右に示すカメラヘッドとコンソール部で成り立っています。コンソール部はカメラヘッドを4台まで接続することができます。コンソールにはこの他、パソコンに接続するためのIEEE1394とCameraLinkコネクタ、電源コネクタ、トリガ入出力用BNCコネクタなどが装備されています。カメラ操作は、パソコンによってコンソールを介してコマンドを送り、ライブ画像や記録画像をパソコンに取り込むことができます。操作ソフトウェアは、カメラ専用のものが付属されていてWindowsXP上で動作できるようになっています。
     
     
    主な仕様:
    ■ カメラ
    ・撮像素子: インターライン
           プログレッシブスキャン型CCD
           (Kodak製 KAI-11000CM)
    ・ピクセル数: 10,709,376画素
             4,008 (H) x 2,672 (V) 画素
    ・ピクセルフォーマット: 9.0um x 9.0um
    ・画素エリア:  36mm x 24mm(フィルムカメラのライカサイズと同じ)
    ・受光容量: 60,000 e-
    ・シャッタ: 電子シャッタ
    ・冷却: 電子冷却(室温より -5度の設定。ファン付きのものは室温より -15度)
    ・階調: 12ビット、66dB
    ・読み出しノイズ: 30 e-
    ・カメラレンズマウント: ニコンFマウント
     
    ■ 撮影操作
    ・カメラ操作及び画像読み出し: CameraLink もしくは IEEE1394a
    ・撮影速度: 最大4.63コマ/秒(CameraLinkにて30MHzでの読み出し時)
           3コマ/秒(IEEE1394、白黒画像時)
    ・電子シャッタ露出設定時間: 192 us 〜 60秒(1us設定)(連続取り込み時)
                   19 us 〜 60秒(1us設定)(トリガーモード取り込み時)
    ・ゲイン調整: 0〜36dB
    ・ビンニング: 2x2、3x3、4x4
    ・ピクセル・クロック速度: 10MHz
    ・フレーム転送速度: 0.5フレーム/秒
     
    ■ 寸法及び重量
    ・寸法: 123.8(W) x 98.4(H) x 91(L) mm
    ・重量: 0.92kg
     
    ■ カメラ電源部(コンソール)
    ・接続カメラ台数: 4台(メガプラスIIカメラシリーズがすべて使用可能)
    カメラ-電源部ケーブル: 2m、5m、7m
    ・操作: 汎用パソコン(WindowsXP)にてIEEE1394もしくはCameraLink接続
         操作ソフトウェア付
         カメラ認識、撮影速度、露出時間、ゲイン、ビンニング、ライブ画像モニタ、画像転送
    ・その他通信: Serialポート(オプション)、100Baseイーサネット(カメラファームウェアアップデート用)
    ・トリガ入力: デジタル信号(TTL、CMOS)による立ち上がり、もしくは立ち下がり信号。信号入力で決められた露出時間で画像取得。
    ・トリガ入力信号コネクタ: BNCコネクタ
    ・ストロボ出力: デジタル信号にて露出時間分だけ出力。
    ・ストロボ出力コネクタ: BNCコネクタ
    ・消費電力:15W/台(付属のACアダプタを用いてAC100Vから電源を供給)
    寸法: 157(W) x 50.8(H) x 157(D) mm
    ・重量: 1.14kg
     
     
     
      
    高速度カメラ用CCD素子(Kodak 16ch読み出し素子) (2000.10.01)
     特殊なCCD素子について説明します。高速度カメラ用に開発されたCCD素子です。一般のCCDカメラは1秒間に30コマ/秒の撮影を行います。しかしながら高速度カメラは1秒間に1,000コマ/秒程度の撮影を行います。通常のCCDカメラの撮像原理は上で述べた通りです。750素子(水平)x 525素子(垂直)のCCD素子が1秒間に30フレームで送る画素は、
     
    750 x 525 x 30 = 11,812,500 画素/秒  ・・・(Rec -16)
     
    となります。これが1秒間に1,000コマ/秒の撮影速度となると、転送速度は、393.8M画素/秒となります。400Mバイト/s(3.2Gビット/秒)の高速読み出しは、単純に考えると不可能な値でした。CCDの転送は100ns(1000万分の1秒)が限界と言われていますから、それよりも40倍も速く送らなくてはなりません。
    そこで、Kodak社は素子を分割して並列に読み出す方式を考え出しました。この考えは、1982年にKodakがMOS素子で実現して特許を取った方式です。以下の模式図が、Kodak HRという高速度カメラ(1996年、Kodak R0、1999年、Redlake MASD HGモデル2000、Redlake MASD CRモデル2000という高速度カメラに採用、2003年製造中止)に採用されたインターライントランスファー型CCD撮像素子です。上下2分割、さらに水平に8分割で計16チャンネルの読み出し口を持っています。1ch(チャンネル)あたりのCCD素子は64x192画素になります。これで1,000コマ/秒の撮影を行いますから、
     
    64画素 x 192画素 x 1,000コマ/秒 = 12,288,000 画素/秒/1ch  ・・・(Rec -17)
     
    となります。CCD素子の限界である10Mバイト/秒(10MHzクロック転送)の性能に挑戦した撮像素子ということができます。
     
     
    この撮像素子は、高速読み出しという機能の他に、
     
      ・ 電子シャッタ機能(最小23マイクロ秒設定)
      ・ Bayerフォーマットカラーマトリクスフィルタによるカラー撮影
      ・ VOD(Vertical Overflow Drain)構造による1:100以上のアンチブルーミング機能
      ・ 16umx16um画素
      ・ 2/3インチサイズ素子(8.192mm x 6.144mm)
     
    という特徴を持っていました。
     この素子は、1994年から2003年までのカラー高速度カメラに採用されて活躍しました。2002年あたりから、CMOS素子で高画素で高速撮影できる素子が開発されたので、この素子は製造を中止しました。従って、この素子がCCDタイプでは最も高速に転送できた素子となりました。
     以後、高速度カメラはCMOSの時代を迎えました。CMOS素子になっても高画素、高速読み出しタイプのものは複数の出力ポートから並列に読み出して読み出し時間の短縮を図っています。
     
     
    計測用CCD素子(Kodak KAF素子)(2000.10.01)
     通常のCCD固体撮像素子とは趣を異にした理科学用の計測CCD素子も作られています。
    平成12年(2000年)9月22日の科学新聞にトピックスとして米国Kodak社が各種高性能センサーを発売しているという記事が載っていましたので紹介しておきます。これらセンサーは、人工衛星、交通管制システム、デジタルカメラ、スキャナーなどに使用されています。
     固体撮像素子は、急速に進歩していて1年でたくさんの新しい素子が発表されます。これらの素子は現在も販売されているか保証の限りでは有りません。技術仕様の参考までに掲載するものです。CCD素子は、右の写真のようにむかでのような足のついた電子素子形状で平板に受光部が設けられています。この部分でレンズを通して結ばれた光学像が光の強さに応じて電荷を発生します。その電荷をむかでの足を通して電子回路に取り込まれ、画像が形成されます。
     
    ・KAF-16801CE: 1680万画素の大型CCDセンサー
         画素サイズ9um、パッケージは34ピンセラミクス。
         スタジオデジタルカメラ向けに開発。
    ・KAF-5100CE: 510万画素
         画素サイズ6.8um、4/3インチイメージフォーマットサイズ、
         パッケージは26ピンセラミクス。2,614x1,966画素。
    ・KAI-1020: 100万画素、インターライン型CCD
         プログレッシブ型インターライントランスファー型CCD、電子シャッタ。
         デジタルカメラ向けに開発。
     
    また、コダック社では以下に述べるMOS素子についても初の開発を行い以下の素子を販売すると発表していました。(2000.10)
     
    ・KAC-0310VGA: VGA対応のグローバル電子シャッタ内蔵MOSセンサー
         画素サイズ7.8um、ピンフォトダイオード、640x480画素、コダック社特許
         のグローバルシャッタ機能(全てのピクセルを同時に露光することが可能な機能、
         MOSタイプではこれが難しかった)、電源は3.3V。
    ・KAC-1310メガピクセルカメラ: 100万画素、MOSセンサー
         画素サイズ6um、ピンフォトダイオード、1,280 x 1,024画素、1/2インチセンサー
         8ビット/10ビット出力選択、プログレッシブ/インターレース選択
     
    2007年3月時点で、コダック社が供給するCMOSセンサーは以下の通りです。
    ・KAC-9618:  VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
    ・KAC-9619:  VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
    ・KAC-9628:  VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
    ・KAC-00400:  WVGA(768x488画素)、6.7umx6.7um、1/3"型、60コマ/秒
    ・KAC-01301:  1.3MP(1284x1028画素)、2.7umx2.7um、1/4"型、15コマ/秒
    ・KAC-05010:  5.0MP(2592x1944画素)、2.2umx2.2um、1/2.5"型、5コマ/秒
    ・KAC-3100:  3.1MP(2048x1536画素)、2.7umx2.7um、1/2.7"型、10コマ/秒
    ・KAC-5000:  5.0MP(2892x1944画素)、2.7umx2.7um、1/1.8"型、6コマ/秒
     
     
    高感度CCD素子 - EMCCD  (2008.12.17記)(2009.02.03追記)
     EMCCD(Electron Multiplying CCD)と呼ばれる固体撮像素子は、CCDの仲間に入り、非常に感度の高い撮像素子です。電子増幅CCDと呼んでいます。このCCDは、素子内部にある電子増幅を受け持つ回路によって、約1,000倍の感度をもつものです。これは、2002年の同時期に、米国テキサスインスツルメンツ(TI)社と英国E2V社で開発され、TI社の製品はImpactron(インパクトロン) CCD、E2V社の製品は、L3Vision CCDという商品名でそれぞれ販売されました。
     このCCDは、感度が非常に良いので、イメージインテンシファイアと組み合わせたCCDカメラと比較されることが多く、フォトンカウンティングの領域で使われています。
     EMCCDの構造を見てみると(右図参照)、撮像部は、フレームトランスファCCDと同じ構造になっていて、それに加えて、読み出し部に電子的な増幅部があることがわかります。この電子増幅部に、50V程度の高い電圧が加わり、一種のアバランシェ効果(電子なだれ)を起こして画像信号を増幅していきます。構造からわかるように、CCDがフレームトランスファ式なので、高速度撮影には向かず、電子シャッタも高速で行うことができません。受光部から蓄積部に移す時間が、最小露光時間となります。例えば、縦列に512画素のCCDが並び、これを1.5us/画素で転送する場合、
     
    1.5E-6 us/画素 x 512 画素 = 768 us
     
    768 usの転送がかかります。この間に、受光部に光が入り続けますから、スミアの問題も出てきます。
    また、電子増幅部でも同様のクロック時間でピクセル転送を行うとすると、512x512画素の画像では、
     
    1.5E-6 us/画素 x 512x512 画素 = 0.393
     
    の取り込み時間がかかります。0.393秒は、2.54フレーム/秒に相当します。
     こうしたことから、EMCCD素子は、(100us以下の)短時間露光が必要な応用や、高速度撮影はあまり得意でないことがわかります。
     イメージインテンシファイア(I.I.)と比較した場合、I.I.の場合は、撮像管(真空管)であるために、過度な光に対してダメージが大きい、ノイズが多い、振動に対して弱い、寿命が短い、カメラと組み合わせて使うので画質が落ちる、という欠点を持ち、この点においては、EMCCDが有利となります。しかし、EMCCDは、マイクロ秒以下の電子シャッタを持ち得ないために、高速現象への応用が利かないというデメリットを持ち合わせています。
     
     EMCCD を使った代表的なカメラ
       - ProEM(米国Princeton Instruments社)
    【仕様】
    ・撮像素子: 背面照射型EMCCD
    ・画素数: 1024 x 1024画素
    ・画素サイズ: 13um x 13um
    ・素子サイズ: 13.3mm x 13.3mm
    ・画素濃度: 16ビット
    ・量子効率: 90%以上
    ・電子冷却: -65℃
    ・メカニカルシャッタ: φ25mm口径 内蔵
    ・電子増幅: 二段増幅
    ・画素読み出し: 10Hz 〜 5MHz
     
    ・読み出しノイズ: 25e- @5MHz
              50e- @10MHz
    ・受光容量: 730,000 e-
    ・EM増幅: 1 〜 1,000X(設定可能)
    ・転送レート: 蓄積部への転送
            0.6us 〜 5us(可変)
    ・取り出しレート: 10MHz、5MHz
              1MHz、100kHz
    ・取り込み速度: 8.5コマ/秒
             @1024x1024画素
    ・レンズマウント: Cマウント
     
     上に示したカメラは、2008年に発売された米国Princeton Instruments社のProEMという高感度カメラです。素子に背面照射型のEMCCDを使っていて、-65℃で素子を冷やしています。-65℃の低温なので、素子に霜がついたり結露することを防ぐために、素子は真空パックされています。冷却効果を高めるため、外部より空気や純水などを送り込んで、電子冷却で発熱した部位を強制冷却する機構も設けられています。素子は1024x1024画素で16ビット(65,000階調)の濃度を持ちます。CCDは、一定時間露光したあと、1024画素ある縦列を0.6us〜5us/画素かけて蓄積部に入ります。この間(614us 〜 5,120us)は、光にさらされるためスミアの危険があります。蓄積部に入った画素情報は、電子増幅を行いながら、100kHz〜10MHzのレートで読み出されます。取り出しレートが低いと、ノイズが入らず高画質が維持されます。10MHzの取り出しレートでは、1024x1024画素を0.105秒で取り出すことができます。撮影速度は、この取り出し時間に、最小露出時間とCCDの蓄積部への転送時間を加えなければならないので、撮影速度は、8.5コマ/秒(0.118秒/枚)となります。
     メカニカルシャッタは、転送時のスミア防止、暗部(ダークカレント)補正用、使用しないときのホコリ防止に使うもので、一種のキャッピングシャッタの働きをします。
     
     
    ↑にメニューバーが現れない場合、
    クリックして下さい。

     
     
     
     
    ▲ 撮像素子 - - -CMOS(Complementary Metal Oxide Semiconductor)素子 (2000.09.24)(2008.10.25追記)
     
     MOSタイプの撮像素子は、CCDと違い構造が比較的シンプルです。電源もバケツリレーをしないため転送のための多種類の電源がいりません。画素の転送は、XとYのそれぞれをアドレス(指定)して交差した画素の電荷を取り出す方式です。この方式は高速化しやすい特徴を持ちます。1990年に登場した固体撮像素子による高速度カメラにはMOSカメラが使用されていました(Kodak HS4540、ナックHSV-1000、フォトロンFastcam)。2000年を越えてからは、高画素(1280x1024画素、500コマ/秒)でグローバルシャッタ(全画素一斉に電子シャッタが働く機構)のCMOS素子が市販化されるようになったので、多くのカメラメーカが高速度カメラを作るようになりました。高速度カメラは、現在(2002年〜2008年)、CCD素子を使ったものはほとんど見かけません。CCDでは、電荷をバケツリレーで送る構造上、高速で転送できないという問題があったからです。反面、初代(1990年代初め)のMOS型素子には、トランジスタによるスイッチングノイズが画像に影響を与えたり、画素はXYアドレスが指定されるまで電荷を蓄え続け、シャッタ機能が設けられないという欠点も併せもっていました。
    CCDは、高速度カメラに向かないと言いましたが、CCDの特殊な素子であるISIS(近畿大学江藤剛治先生開発)では100枚の画像記録をCCDの転送部に持たせ100万コマ/秒の撮影を達成しています。
     
    ■ MOSと呼ばれる半導体
     CMOSと呼ばれる固体撮像素子は、MOS型固体撮像素子に区分されます。
    MOS素子そのものは、1968年に米国RCA(Radio Corporation of America)社が開発したロジックIC(4000シリーズ)で有名になるトランジスタです。MOSは、カメラのために開発された電子素子ではありません。トランジスタ構造の1種類です。トランジスタの1種類として1950年代から研究が続けられていました。MOSは、米国ベル電話機研究所を中心に米国RCA社、同Faichild社が熱心に研究を始めていました。1960年代後半、トランジスタがアナログからデジタルへ移行していた時に、RCA社がデジタル素子としてMOS構造の半導体を採用しシリーズ化(4000シリーズ)しました。当時、デジタル素子は米国テキサスインスツルメンツ社が開発したTTL(Transistor Transistor Logic、1964年)がありました。1990年代までデジタル素子で高速のものはTTLが優れていたので、計測用のデジタル電子機器はTTL素子を使ったものが主流でした。 TTLは、バイポーラトランジスタ(初期のトランジスタ、NPN、PNP半導体を直線的に配置した構造)を用いたトランジスタロジックで、電流の流れで信号を扱っていました。反対に、MOSはMOSFET(MOS Field Effect Transistor)という言い方で一般的なように、電界効果型トランジスタであり、電圧によりトランジスタを働かせるものです。従って、MOSは、電流を消費しないという特徴を持っていました。
     MOSは、構造上、nタイプのものとpタイプのもの、および両者を組み合わせた相補的なCタイプのものがあります。歴史的にみてCタイプのものが最後に開発されて前者の良いところを取り込んだので、MOSと言えばCMOSを指すようになりました。pMOSは初期のバージョンであり、安定していて消費電力が少ない反面、速度が上がりませんでした。nMOSは速度向上に向いていました。CMOSは、それら両者の良いところを取り入れて発展しました。現在のCPUやRAMメモリなどコンピュータ回路には、ほとんどすべてCMOS素子が使われています。
     このように半導体技術の歴史を見てみますと、MOS固体撮像素子は、MOS技術を導入して作られた固体撮像素子であったことがわかります。従って、撮像素子の開発においても通常のMOS開発と同様の流れがありました。つまり、nMOSタイプがMOS型撮像素子として1980年代に世に出ました。CMOSタイプは1990年後半からです。2000年以降、MOS型撮像素子はほとんどCMOSタイプになりました。
     

     

     
     
    【CMOSカメラの開発】
     MOS(正確には相補型MOS、CMOS = Complementary Metal Oxide Semiconductor)固体撮像素子は、CCD撮像素子と同じ時期、正確にはCCDより3年早い1967年に米国フェアチャイルド社(半導体メーカの草分的存在の会社。CPUで有名なインテルは1968年にFairchildの社員3名で作られた)のWeckler氏によって発表されました。
    MOS型撮像素子の簡単な原理は、光をフォトダイオードで受けてそれをトランジスタのスイッチによって取り出すというものです。フォトダイオードをアレイ状に並べたものでした。CCDが、電荷の転送形態を発想の主眼において、半導体メモリとして使おうと考えていたのとは好対照で、CMOS撮像素子は最初から映像デバイスとして開発されました。従って、画像を取り出す考え方はとても素直です。
     1970年から1980年代は、固体撮像素子の興隆期で、MOS型、CCD型あるいは、この二つを組み合わせたMOS-CCD型が競い合い、1990年に入って、S/N比に劣る(トランジスタのスイッチングノイズとフォトダイオードの感度のバラツキが主な原因)MOS型は性能面でCCD素子に水を開けられました。
     しかし、1990年代の終わりになって再びMOS型素子を見直す機運が現れました。MOS型素子の特徴は、製造工程が簡単なことと消費電力が少ないこと、それに自由な読み出しパターンが得られることです。特に消費電力が小さいことは、昨今のデジカメの台頭やバッテリ駆動のムービーカメラでは大きな魅力になって再び脚光を浴びるようになりました。
     CMOSイメージセンサーが見直される直接的な契機は、1994年、米国NASAのジェット推進研究所(JPL:Jet Propulsion Laboratory)のEric R. Fossum氏の研究に始まります。エリック・フォッサム氏は、JPL退社後、1995年にフォトビット社を設立し、2001年Micron Imaging → 2005年SIIMPEL社、および南カルフォルニア大学助教授に就任されています。彼は、CMOS素子に増幅器を内蔵させたCMOS APS(CMOS Active Pixel Sensor)撮像素子を開発しました。これがCCDに匹敵する画質を持っていたため、MOS型素子の長所をアピールすることができるようになり、AT&T、Kodakなどへ協力を呼びかけて活性化を図り、今日のCMOS撮像素子の発展につながって行きました。NASAでは、宇宙計画の一環としてコンパクトなカメラ素子開発を望んでいて、シリコン基板上にセンサー、アンプ、ドライブ回路、補正回路をすべて実装でき、しかも単一電源で駆動するCMOSカメラの開発に熱心であったという背景があります。この開発が、携帯電話や監視カメラなどの「目」として急成長を促していくことになりました。2000年からは、電子シャッタ機能を持つMOS型固体撮像素子もできました。2004年あたりからはデジタル一眼レフカメラにも採用されるようになりました。
     また、コンピュータに使われる光学マウスのセンサーとしてCMOSセンサーが使われ飛躍的に業績を伸ばしています。このセンサーは、16x16画素(256画素)、64階調(6ビット)で電源回路及び取り出し回路と一緒に22mmx10mm程度のICチップ(DIP = Dual Inline Package)に収められていて、一秒間に最高2,300コマ/秒(2,300Hz)で2次元画像のパターンを読み出します。この情報を取り込んで、画像処理を経てマウスの移動距離、速度を算出するようになっています。このセンサーを開発したのは、米国 Agilent Technologies Inc.という会社で、ADNS-2051という素子を一般向けに販売しています。このセンサーは、500cpi(cpi = count per inch)の解像力を持っています。
     
     
     
    【CMOSカメラの特徴】
     2000年以降、CMOS撮像素子が復権してきています。その理由を以下に述べます。
     
    1. 画質の向上
     新世代(1990年代後半)のCMOS固体撮像素子は各画素に増幅器を備えています。MOS製造技術がCCD素子並に発達して、1画素 4-7um相当の素子が作られるようになり、微細加工技術によってフォトダイオード、増幅トランジスタ、リセット用スイッチ、行選択スイッチを配列する事が可能になりました。この考えは、MOS型撮像素子が考案された当初からあったアイデアでしたが当時の加工技術では不可能でした。
     各画素に増幅トランジスタを配置できることによって受光した微弱な電荷を直ちに増幅できるようになり、その後に加わるノイズに比べて信号成分を高くすることができるようになったため、S/Nのよい高画質な映像を得られるようになりました。
     
    2. 固定パターンノイズを抑える技術の確立
     固定パターンノイズ(FPN:Fixed Pattern Noise)を抑圧する回路をMOS素子上に実装できるようになり、各画素に設けられた増幅トランジスタの特性のバラツキを抑えることができるようになりました。
     
    3. CMOS技術で素子を構築できるため小型コンパクト
     素子をCMOS製造技術ですべてまかなえるため構造がシンプルでコンパクトにまとめることができます。電源も単一電源(例3.3V)だけで駆動できることから電源部もシンプルにできます。実際には素子にはいくつかのバイアス電圧が必要ですが、素子にバイアス発生回路を内蔵させることができるので、外部からは単一電源とマスタークロックを与えてやれば良いというシンプルなものになります。言い換えればCMOSセンサーは1チップで全てを内蔵できてしまいます。CCDは、CMOSと違い構造上1チップにまとめることができません。
     
    4. 低消費電力
     これがCMOSの大きな特徴です。CMOS撮像素子は、読み出す画素のX-YアドレスのトランジスタスイッチのみONし、後は休止していても問題ない構造となっています。反対に、CCDは常時垂直、水平転送部に転送のための駆動パルス(それも5V、12V、-8Vなどの複数の電圧)を印加させなくてはなりませんから電気を常時消費します。CMOSの場合、VGAクラスのモジュールで消費する電力は200mWで、同じクラスのCCDに比べて1/5であると言われています。
     この利点を活かして、携帯電話、モバイルPC、小型を必要とするカメラの応用市場で急速に需要を伸ばしています。おもしろいことに高級デジタル一眼レフカメラ分野でもCMOS撮像素子を採用するケースが増えています。
     
    5. X-Yアドレッシングの魅力
     CCDが一括転送という機能を主眼に開発されたのに対し、CMOSは特定の画素を指示して読み出すことができるX-Yアドレッシング方式です。この特徴を巧みに利用すればおもしろい応用が広がります。
    高画素の素子は全ての画素を読み出すのに時間がかかるので、撮影速度が遅くなる欠点がありますが、X-Yアドレッシングの機能を使えば、興味ある範囲だけを読み出したり、間引きして読み出すことにより高速でモニタリングできるため構図を決めたりピント合わせなどが迅速にできるメリットが出てきます。
    高速読み出しというのも大きな魅力です。2004年には、1504 x 1128画素、1,000コマ/秒で読み出せるCMOS素子が開発されました。
     
    6. 安価
     CMOSセンサーは、既存の半導体技術で比較的簡単に製造できるため、価格が安くできるというメリットがあります。価格が安いと言うことはパーソナルユースの電子機器に組み込まれる潜在能力を持っています。今や携帯電話にCMOSセンサーを搭載したモデルが常識になっています。こうした画像機能を付加した電子機器が価格が安価になれば爆発的に伸びる可能性があります。コンピュータに使われる光学マウスにもCMOSセンサーを搭載したモデルが多く出回るようになりました。2000年ベースでのCCDの世界規模の売り上げは18億ドル(2000億円)と言われ、方やCMOSは6億3200万ドル(758億円)でした。当時、世界市場の75%がCCDの市場でしたが、2004年にはCMOSが追い抜き、その売り上げ規模は22億8000万ドル(2,736億円)となりました。CCDは、特殊な応用(医用、天体観測、物理学分野、放送局分野)分野での使用に限られて来ています。
     
     
     
    ▲ CMOS素子とCCD素子 (2001.09.24)(2008.12.27追記)
     固体撮像素子の代名詞である両者のどちらが良いかと簡単に述べるのは難しいことです。歴史的にはMOS型撮像素子がCCDに先んじて開発されましたが、1980年と1990年は圧倒的にCCDの時代でした。2000年になってCMOSの持つ欠点が克服されて長所が見直され、徐々に固体撮像素子の市場に浸透しつつあるという感じを受けます。
     2001年の春には、Kodak社とMotorola社の共同開発によって、メガピクセルサイズのKAC1310というカラーCMOSデジタルセンサー(1/2インチフォーマットサイズ、1280 x 1024画素)と、KAC0310と呼ばれるVGAタイプ(1/3インチ、640 x 480画素)のセンサーが発売されました。
    KodakとMotorolaという組み合わせは興味があります。
    Kodakがイメージングの世界ではリーディングカンパニーで、Motorola社がCMOS技術では世界的なリーディングカンパニーだからです。モトローラ社は、これまでイメージセンサーを作っていませんでした。コダックはCCD素子では秀逸なものを開発してきました。
     CCDとCMOS両者の2000年時点での市場占有率は、CCD75%、CMOS25%と言われていました。これが2004年には逆転し、2007年にはCCDの市場は30%になるだろうと予測されていました。(2006年1月の時点では、CMOSカメラが大分追い上げてきてはいますが、まだ逆転はしていません。ただし携帯電話用のデジタルカメラは2004年にCCDチップを追い越して、2007年でのCMOS素子はCCDの6倍になっています。反面、デジタルカメラは2007年時点でCCDの1/10程度となっています。高級デジタル一眼レフカメラでは、2008年時点でCMOSセンサーが大勢を占めるようになりました。)
     2002年、キヤノンが35mmフィルムサイズ(ライカサイズ)のCMOS撮像素子を開発し、EOS-1Dsに搭載しました。CMOSは、CCDに比べてノイズが多く画質が悪いと言われていた定説に真っ向から果敢にチャレンジし製品化に漕ぎ着けました。有効画素1,670万画素(4,992画素x3,328画素)に及ぶライカサイズの大型撮像素子開発になぜCMOSを選んだかと言うと、
       一つには、電気を食わない素子であったこと、
       次に、CCDに比べて製造が楽なために大形化しやすかったこと。
       そして、たくさんの画素を速く読み出す必要から、高速化のできるCMOS素子が適当であったこと
    があげられます。キヤノンは、この素子を8chの並列読み出しとして、4コマ/秒の撮影を達成しました。大きな撮像素子を採用するためにCCDでは製造が難しかったり、消費電力が大きかったりとCMOSに舵を切らざるを得なかったという見方も成り立ちます。
    しかしながら、画質はCCD に比べるとまだ不十分で、2005年レベルでカラーリバーサルフィルムのラチチュードに追い付いた、程度と言われていました。
     
    ■ フィルムカメラを撤退させたデジタルカメラ
     2006年1月13日に、すごいニュースが入りました。名門ニコンが一眼レフフィルムカメラから撤退するというニュースでした。ニコンの高級一眼レフフィルムカメラの販売台数は、最も販売した2000年の104万台をピークに下降線をたどり、2005年は14万台と1/7強まで落ちてしまったと言われています。その代わりにデジタル一眼レフカメラの販売が好調で品薄状態が続いるそうです。ニコンの採用している固体撮像素子は、イメージサイズは、23.7mm x 15.7mmとフルサイズ(ライカサイズ)ではありません。画素の少ないモデルにはCCD素子が使われ、ニコンD2xに使われている4,288x2,848画素(12.4Mピクセル)のものにはCMOSが採用されました。
    この事実は、どう考えても画質優先というよりはバッテリの消費電力と読み取り速度、製造上の利点を考えてのことだと考えざるを得ません。
     
     
    【CCDとCMOS撮像素子の一般的な比較】
     CCD素子とCMOS素子は、今後どのような関係を保ってイメージング産業を支えていくのでしょう?
    こうした技術は、日進月歩進歩するので現時点(2008年)で断定するのは無謀かと思いますが、おおよその傾向を述べておきたいと思います。
     
    ■ 感度
    撮像素子の感度は、セルの大きさ、ノイズの量、増幅度、カラーフィルタの形式によって決まります。
    基本的にノイズ成分の多いCMOSセンサーのほうが信号成分が少なく、開口率も小さいため感度はCCDの方が高いようです。リッチな画像情報を得ようとするとCCDカメラのほうが現時点(2008年)で有利です。16ビット濃度(65,000階調)を持つCCDカメラは市販されていますが、16ビット出力のCMOSカメラは2008年時点で聞いたことがありません。
     
     
    CCD
    CMOS
    感度
    画質
    画素数
    消費電力
    ×
    コンパクト
    ×
    電子シャッタ
    ブルーミング
    ×
    将来性
    応用
    天体観測
    医用分野
    放送局分野
    携帯電話
    デジカメ
    高速度カメラ
    マウスセンサ
    CCD撮像素子とCMOS撮像素子の相対比較(2008年時点)
    この表は、相対的な比較であり、絶対的な意味を持つものではありません。
    ■ 画質
    画像の質感は、受光容量が大きくてS/Nの良いCCDの方が基本的には良好です。
    反面、24mm x 36mm(フルサイズ、ライカサイズ)のような大型撮像素子を使った高級デジタル一眼レフカメラにはCMOSが使われて主流になっています。この事実から、CMOSは画質が良い、と判断しがちですが、どうでしょうか。生の画像はCCDの方が優れていると思います。高級デジタル一眼レフカメラには「グラフィックエンジン」という画像処理機能が設けられていてここでかなりの画像修正を行っているようです。
     
    ■ 画素数
    CCDの方が歴史が長い分、高画素の素子が製造されています。CCDでは4,000x4,000画素のものが2000年の時点から販売されています。
    CMOSは、製造プロセスが簡単でDRAMの製造プロセスで製造できることから近年、高画素化が進み、1,280x1,024画素から4,992x3,328画素まで製造されるようになっています。製造の観点から言うとCMOSの方が製造工程がCCDに比べてシンプルであるため、今後高画素素子が作られる傾向があります。
     
    ■ 消費電力
    CMOSセンサーは同等のCCDセンサーに比べて1/5〜1/10の消費電力と言われています。
    バッテリ駆動による装置ではCMOSセンサーの方が格段に強みを発揮します。
     
    ■ コンパクト
    素子をコンパクトに設計するのは構造上CMOS素子の方が優れています。
    素子の構造がシンプルなため集積率もCMOSの方が高くできます。
     
    ■ 電子シャッタ
    CCD素子の中で、インターライン型と呼ばれるものは電子シャッタ機能を持ちます。
    CMOSも、グローバルシャッタ機能付きのものは電子シャッタ機能を持っています。
    ただし、グローバルシャッタ機能のCMOSは、各画素にシャッタを切った後の電荷を一旦蓄えるメモリ部を持たせるので、受光部が小さくなり感度が悪くなる傾向があります。デジタル一眼レフでは、グローバルシャッタ機能を持つCMOS素子はありません。また携帯電話に使われるCMOSは、ローリングシャッタです。
     
    ■ Blooming(ブルーミング)
    CMOSセンサーは、受光部がバイアスをかけたフォトダイオードでできていて、
    光の入射に対して保持していた電荷を放出する構造になっています。
    従って、過度な光が入射してもCCDセンサーのように過剰な電荷が蓄えられて周辺の画素にあふれ出すようなBloomingという現象がおきません。
    これは、CMOSセンサーの大きな特徴です。
     
     
    ▲ CMOSの画質を向上させたCDS(Correlated Double Sampling)機能 (2008.12.27)
     CMOS撮像素子が、ノイズを低減させて画質を向上させていった大きな技術革新の一つにCDS(Correlated Double Sampling、相関二重標本化法)があります。CDSは、米国ウェスチングハウス社のMarvin H.White(1937〜)が、1974年に開発したものです。
    この手法は、信号成分と信号のない時間での雑音成分を逐次A/Dサンプリングしてその差分を得るというものです。両者の共通する雑音成分を除去することができ、S/Nの良い映像情報を得ることができるようになりました。
     
     
     
     
    ▲ 電子シャッタ内蔵CMOS撮像素子  (2008.07.03記)(2008.09.13追記)
     計測用CMOS撮像素子では、電子シャッタ内蔵のものが一般的になっています。計測目的に使う場合には、時間分解能を上げる必要上この機能を備えたものがとても大切だからです。CCD素子においても、計測目的では電子シャッタ内蔵のインターライントランスファCCDが一般的になっているのと同じ理由です。
     CMOS撮像素子ができた当初は、シャッタ機能がありませんでした。 右図の青色の破線で囲まれた回路のないCMOS撮像素子が一般的でした。従って、フォトダイオードに蓄えられる電荷は、取り出しスイッチで取り出されてリセットがかかるまでフォトダイオード上に残ることになります。CMOS撮像素子では、各画素毎にスイッチが働いて蓄えられた電荷量を取り出すので、1画素毎に取り出し時間がずれます。CCDのように一斉に取り出すことはできません。CCDは、垂直転送路でそうした芸当ができましたが、CMOSは一つ一つ取りだすことが特徴です。従って、全画素を読み出す場合、撮影速度分の1、つまり、30コマ/秒の撮影では、最初に取り出した画素と最後に取り出した画素では1/30秒の時間的ズレが生じることになります。
     
     
    ■ ローリングシャッタとグローバルシャッタ(Rolling Shutter, Global Shutter)
     1990年中頃に開発されたCMOS素子は、各画素に増幅器が内蔵されていて画素毎のノイズをキャンセルして情報分を有効に取り出す工夫がなされていました。これを1990年以前のCMOSと区別して、APS(Active Pixel Sensor)と呼びます。これは先に説明した右上の図の青色点線のない構造です。APSでは、各画素にリセットスイッチと増幅素子が内蔵されています。APS以前の素子をAPSの対語としてPPS(Passive Pixel Sensor)と呼んでいます。
     APSでは、リセットスイッチの働きによって受光する時間分を任意に設定することができます。このリセットスイッチの本来の機能は、ノイズ成分も取りだしてノイズと受光成分の2成分を引き算して(CDS = Correlated Double Sampling、相関二重サンプリング手法で)ノイズを低減するために設けられたものですが、このリセットスイッチをシャッタスイッチとして使うことができます。すなわち、リセット信号を使って短い時間だけ受光を行えば高速シャッタリングを行うことができます。この機能をRolling Shutter と言います。  このシャッタでは、しかしながら、依然として各画素間の時間的なズレがありました。この機能では、1/100,000秒程度の短時間露光を行うことができる反面、各画素が1/30秒で取り込まれるならば最初の画素と最後の画素では1/30秒の遅れがでてしまいます。ローリングシャッタの名前の由来は、画面をローラで舐めるように(ドミノ倒しのように)シャッタが次々と切れていくのでこの名前が付けられたと理解しています。このシャッタ機能を説明したのが下の図の右です。実際のシャッタはこのようなものではありませんが、孔のあいたシャッタ孔が左から右に走り開けられた部位に相当するセルが露光を受けるという仕組みです。これはニポー(独 Paul Nipkow、1860 - 1940)が1883年に考案したしたことからニポーシャッタとも呼ばれています。CMOS撮像素子ではこの機能を電子シャッタで行っていました。要するに全画素一度に電子シャッタを切ることはできなかったのです。
     計測分野ではこのシャッタは受け入れ難いものでした。ローリングシャッタは、光量を調整するためには有効なものであるものの、画素ごとに時間が変わるのは正確な時間成分情報が得られないことを意味します。ローリングシャッタによる画像をみると、動きの速い被写体では像が歪んでしまいます。一眼レフカメラに使われているフォーカルプレーンシャッタも、一種のローリングシャッタです。フォーカルプレーンシャッタは、撮像面(フォーカルプレーン)に設けられたシャッタであり先幕と後幕の2枚の幕がフォーカルプレーン上を端から端まで走ります。2枚の幕の間隙(すきま)の巾と走るスピードでシャッタ時間が決まります。幕の走るスピードが遅い場合、撮像面の両端では露光する時間タイミングが顕著に変わります。ローリングシャッタはフォーカルプレーンシャッタと同じような問題を抱えています。
     グローバルシャッタは、ローリングシャッタの問題を解決するために開発されました。
     
     

     

     
     
    ■ グローバルシャッタ(Global Shutter)
     CMOS素子にグローバルシャッタ機能が付けられたことによってCMOS素子が計測用カメラとして普及を見たのは疑いのない所でしょう。しかし、高級デジタル一眼レフに採用されているCMOS素子には、グローバルシャッタ機能は付けられていません。上の図からあきらかなように、グローバルシャッタを付けるということは、画素内の回路が複雑になってフォトダイオード部が小さくなることを意味します。この機能を付け加えると、画素の開口率が下がり、さもなくば1画素のサイズを大きくしなければならなくなってしまいます。また、素子にシャッタという付加回路を付けなければならないことにより素子が高価になります。従って、グローバルシャッタ内蔵のCMOSカメラは、高速度カメラを含めた計測カメラしか使われていません。グローバルシャッタ機能がなかった1990年代の高速度カメラは、撮像素子の前にロータリ円板シャッタを回して撮影と同期させてシャッタを切っていました。円板のスリット巾と円板の回転数でシャッタ時間が決まりました。撮像面をスリットが横切ってシャッタを切るわけですから、回転円板シャッタはフォーカルプレーンシャッタということになります。また別の高速度カメラは、シャッタ機能をつけずにそのままのものもありました。そのカメラで高速度現象をとると顕著に画流れと像の歪みがおきました。そうした時には、パルスレーザを使ってレーザストロボで鮮明な画像を撮ったり、カメラの前にイメージインテンシファイア(光増幅光学装置)をつけてシャッタリングを行いました。
     CMOSにグローバルシャッタ(電子シャッタ)がつけられるようになって、1/100,000秒〜1/1,000,000秒(10us〜1us)のシャッタリングが可能になりました。電子シャッタが機能する時間タイミングは、CCD素子の電子シャッタと同じで、転送を始める直前に行われます。
     
     
      
     
     
    ↑にメニューバーが現れない場合、
    クリックして下さい。

     
     
     
     
    ▲ 一時代を築いた撮像管 (2001.02.26)(2008.10.13追記)
     固体撮像素子全盛の時代にあって、1990年代まで使用されてきた真空管撮像素子(イメージチューブ、撮像管)について触れたいと思います。撮像管は、右図に示すように真空管です。真空管の先(図では左下)が平面になっていて、そこが光導電体(photo conductor)となっていて光に反応して電子像を形成します。光導電膜の場合、光の強度に応じて抵抗が変化します。右上が電極です。
     撮像管は高価で、取り扱いが難しい(高電圧を使う、光に対して敏感で焼き付きが起きる、破損しやすい、寿命が短い)製品のため、撮像管しかなかった時代にはテレビカメラを使って家庭内のプライベートな映像を撮るということはありませんでした。当時、アマチュア向けのテレビカメラは無かったのです。1980年代中頃までの家庭用動画撮影装置と言えば、8mmフィルムカメラが主流でした。テレビカメラが家庭に普及するようになるのは、CCDカメラと家庭用VTRが一般的になった1880年代後半からです。この時期に、8mm巾のビデオテープレコーダとCCDカメラの二つの映像機器が家庭用に開発され、これが一体型となって持ち運びに便利になったため大いに普及するようになりました。
     従って、1980年代中頃までのテレビカメラと言えば、放送局用か産業用に限られていました。
     現在主流になっている個体撮像素子と比べると、撮像管は以下の特徴を持っていました。
     
    ■ 固体撮像素子と比べた撮像管の特徴
     
    ・ ガラス製真空管 - 大きくて、破損の危険
    ・ 耐久性に問題あり
    ・ 寿命が短い(フィラメント切れ、真空度劣化)
    ・ 消費電力が大きい
    ・ 高電圧を使用する
    ・ 残像が多い
    ・ 過度の光で焼き付きが起きる
    ・ 歪曲収差が多い
    ・ 磁界の影響を強く受ける
    ・ 高価
     
    CCDは、撮像管の欠点をカバーするすぐれた特徴をたくさん持ち合わせていました。従って、固体撮像素子の解像力と階調、感度が撮像管の性能に匹敵した時点で撮像管の時代の幕が下りました。
     
     
    ■ 撮像管の原理
     撮像管の基本原理は、フォトチューブ(光電管)です。固体撮像がフォトダイオードであるのに対し、撮像管は真空管を使った光検出素子と言えます。歴史的に見て、光電管の応用製品として撮像管ができるのは十分に理解できます。撮像管の多くは、光導電体(photo conductor)を利用しています。光電面(photo-cathode)ではありません。光電面は電子像が電子として一気に放出されるのに対して、光導電体は電気抵抗が変わるだけなので画像を一筆書きでなぞるように取り出すにはこのほうが都合がよかったのです。光電面は初期のテレビカメラ(非蓄積形撮像管、イメージディセクタ)や、イメージ形撮像管に使われました。撮像管は、光導電体の2次元面に光学像を結ばせて、2次元面の光学像をなぞるようにして電気信号変換(スキャン)を行っていました。従って、撮像管には走査を可能にするための熱電子電極と熱電子を光導電体に打たせる偏光電極機能を持たせていました。撮像管は、ブラウン管(CRT = Cathode Ray Tube、陰極線管)の反対の装置と考えて良いでしょう。ブラウン管(CRT)は、電子銃を使って蛍光面に電子像を描画する装置です。固体撮像素子と液晶テレビができるまでの電子映像は、入力も出力も電子管(真空管)だったのです。
     
    ■ 代表的な撮像管 - ビジコン(Vidicon)管
     下図に、代表的な撮像管であるビジコン管(Vidicon tube)についてその原理図を示します。
    撮像管は、外形が細長い円筒状のガラス管でできています。
    図の左側が光導電体(ターゲット)で、中程に電子ビームを偏向及びフォーカスさせる電子制御部があり、右側は熱電子を放出するフィラメント = カソードになっています。
     撮像管の周りは、撮像管内の電子ビームを走査する偏向ホークや収束コイル、アライメントコイルが取り付けられています。撮像管の左側の入射部にはカメラレンズが取りつけられ、光学像が光導電体(ターゲット)にできるようになっています。撮像管は真空管なので、電子ビームを放出するために別途300V〜800Vの電源を必要とします。撮像管内部には、カソードから放出される熱電子(電子ビーム)を精度良くターゲットに当てるための制御グリッドが4つ(G1〜G4)配置されています。G1(グリッド1、1番目のアノード)はカソードからの熱電子を加速する役目をし、G2(グリッド2)はG1で加速された電子ビームの電流調節を行います。G3は電子ビームを均一に飛ばす目的の円筒グリッドで、G4メッシュが電子ビームを減速させてターゲットに都合良くコンタクトさせるものです。

     

     
     撮像管を回路的にみた図が、上図の右下に示した等価回路です。撮像管の受光部(ターゲット)は、ビジコンの場合、光導電体なので光の強さによって抵抗が変わる可変抵抗体となります。ビジコンで使われている光導電体は、三硫化アンチモン(Sb2S3)の蒸着膜が使われています。これは光の強さに応じて電気抵抗が変化する特質を持っています。この材料は、光が当たらないととても高い抵抗値を示し、光の当たる強度に応じて抵抗値が低下します。ターゲット面は、電気的には光によって抵抗が変わる可変抵抗(r)と電気容量(コンデンサ:c)を持ったものと見なすことができます。
     電子ビームは、ターゲットに向かって打たれます。電子ビームがターゲットに当たると、上図の等価回路のスイッチが閉じたことになり、電荷がターゲット容量に蓄えられます。電子ビームが走査によって任意のターゲット面から離れるとスイッチが開いたことになり、ターゲット容量に蓄えられた電荷がターゲット抵抗(r)を通して放電します。ターゲット抵抗は光の強度によって変わるので、明るい場合は抵抗が低くなるため蓄えられた電荷は速く放電して電圧が高くなります。暗い場合は蓄えられた電荷はほとんど放電しないので電圧は上がりません。ターゲット面は薄い膜でできていて、電子ビームが照射された部分だけが上の等価回路の働きを持つことになります。光導電膜を持った撮像管では、CCD固体撮像素子のような画素という概念は明確にはないものの、電子ビームをきわめて細くして精度良くターゲット面に照射させ、ターゲット面がキメの細かい解像力の優れたものであれば電子ビームの走査(スキャニング)によって電子像をきめ細かく読み出すことができます。この構造からわかるように、撮像管自体にはシャッタという考えがありません。電子ビームが当たるまで光導電膜は光が与えられ続けます。したがって、こうした撮像管は短時間露光ができませんでした。短時間露光を行うには、走査の開始時点でキセノンフラッシュなどを発光させて露光させる必要がありました。
     撮像管の歴史は、感度と解像力の歴史でした。人間の目で見える明るさで綺麗にテレビ画像が撮れることが一番の目的だったのです。300ルクス程度の室内できれいな色合いでテレビ画像を得ることが大きな目標でした。その目標に向かっていろいろな撮像管が作られて行きました。
     また、娯楽用のテレビカメラとは違って、学術用のカメラも開発されました。これらのカメラは、紫外線やX線、赤外線に感度を持ったものや微弱光下で撮影できるカメラでした。これらの詳細は、「■撮像管の種類」の所で触れています。
     
    ■ 撮像管の大きさ
     撮像管の大きさを以下に示します。撮像管の径(呼び径)が現在の固体撮像素子の大きさを表す数値として踏襲されています。2/3型(2/3インチ)CCDは、18mm(2/3インチ)の径を持つ撮像管の像サイズと同じだったので、これが固体撮像素子に使われました。多くの撮像管は、1/2インチから1 1/2インチ(13mm 〜 38mm)のものが多く作られ、高解像力のものでは2インチから4 1/2インチ(51mm 〜 114mm)のものが作られました。撮像管も時代が下るにつれて技術革新によって小さなもので高性能なものが作られ、ENG(Electric News Gathering)用の3管式携帯カメラではφ18mm(2/3インチ)が主流となりました。
    以下に、撮像管の大きさと像の大きさの一覧を示します。
     
     
    チューブ径
    (理論値)
    像 サイズ (アスペクト比 4:3)
    高さ
    対角線
    mm
    inch
    mm
    inch
    mm
    inch
    mm
    inch
    38
    3/2
    20.32
    0.80
    15.24
    0.60
    25.4
    1.0
    25
    1.0
    12.7
    0.50
    9.5
    0.375
    15.9
    0.625
    18
    2/3
    8.8
    0.346
    6.6
    0.260
    11.0
    0.432
    13
    1/2
    6.5
    0.256
    4.9
    0.192
    8.13
    0.320
    30
    6/5
    16.9
    0.667
    12.3
    0.500
    21.1
    0.834
     
     撮像管の径と像サイズの関係
    CCD・CMOS撮像素子の素子サイズの呼び名(2/3型、1/2型)に影響を与えた。
      
     
     
    ■ 撮像管の種類  (2008.09.24追記)
     撮像管は歴史があるため、たくさんのものが作られました。
    以下代表的なものを説明します。
     

     

     
     上の図が撮像管の分類です。
     撮像管は大きく分けて、1.の非蓄積形と2.の蓄積形に分けられます。
    非蓄積撮像管は、テレビカメラの元祖的存在のもので、1931年に米国のFarnsworth(1906 - 1971)によってイメージディセクタ(Image Dissector)と呼ばれる撮像管が開発されました。この撮像管は、極めて感度が低くかったため、最初の動画用撮像管という栄誉を得ましたが実用には耐えませんでした。テレビカメラの最初の原型だったと言えるでしょう。
     非蓄積管は、レンズで結ばれた光学像を電子像に変換する際に電子像を保持し続ける能力がなく、光が当たればそのまま光電子を放出していました。従って、電子像を電気信号として取り出すには、電子管の偏向回路によって電子像を偏向(移動)させて光電面の対極中央部に付けられたマルチプライヤ(電子増幅管)で電子像の部位を取り出していました。電子ビームを振らせて像を走査するのではなくて、検出部が固定されていたため像全体を上下左右に振らせていました。これは、我々が知る電子ビーム走査による撮像管(ビジコン管など)とは随分と違う方式でした。しかし、イメージディセクタ管は、電子像の任意の位置を走査することができるので、ランダムアクセスができる特徴がありました。そうは言っても、非蓄積管の名前の通りとても感度が低かったので、テレビ放送には使われず主に基礎研究として使われました。科学技術用としては特徴があったので、フィルム像や物体を計測する目的にこの撮像管が使われました。
     蓄積形撮像管は、電子像が蓄積されます。蓄積された電子像は、電子ビームを使ってなぞられ(走査され)電気信号として取り出されます。このタイプでは、電子ビームが走査されるまで電子像が蓄積され続けますので(露光時間が長くなるので)感度が良いという特徴があります。蓄積形撮像管は、高速度電子ビーム走査方式と低速度電子ビーム走査方式の2種類があります。高速度電子ビーム走査方式の撮像管が最初に開発され、次第に低速度電子ビーム走査方式に取って代わられるようになりました。高速度電子ビーム走査方式の高速度とは、電子ビームを加速させる電圧が高くてビームの加速が速いという意味です。これの代表的な撮像管は、アイコノスコープ(Iconoscope)で、1933年に米国のツボルキン(Zworykin:1889 - 1982)が発明しました。イメージダイセクタが開発された2年後です。この撮像管は、イメージオルシコンが開発される1946年まで使われました。テレビ放送開局当時はこの撮像管が使われていたことになります。イメージオルシコンは、撮像管の操作電圧を低くして取り扱いをよくした高感度のものでした。この撮像管は、ビジコンが開発される1950年代後半まで使われていました。
     このようにして、放送局で使われた撮像管は、ビジコン系の光導電形撮像管に収れんして行きます。ビジコン系撮像管(光導電形撮像管)は、進化を続け感度を上げて行き1990年までテレビ放送局のカメラの心臓として重要な役割を果たしました。これら連綿と続く撮像管の開発には、米国のRCA社(Radio Corporation of America)が中心的な役割を果たし、初期のほとんどの撮像管の開発にRCA社が関わりました。
      
    ● ビジコン(Vidicon)
     先に、撮像管の代表的なものとしてその構造を説明したように(「■ 代表的な撮像管 - ビジコン(Vidicon)管」)、ビジコンは撮像管の基本となったものです。1950年に、米国のRCA(Radio Corporation of America)社によって開発されました。ビジコンは、光導電形撮像管と呼ばれるタイプです。光導電形撮像管とは、半導体に光を照射すると電子や正孔の数が増加して、電気伝導度(導電率)が著しく増加する現象を利用した撮像管です。光導電体(ターゲット)は、三硫化アンチモン(Sb2S3)の蒸着膜を使用しています。このターゲットの感度波長は、λ=430〜740nm程度です。三硫化アンチモンは、非常に安定しているためたくさんの種類のビジコン管が開発されました。チューブ口径も1/2インチ、2/3インチ、1インチ、1.5インチの撮像管が市販化されました。ただ、放送局用には、このビジコンをベースにしてより感度のある解像力の良いプランビコンやサチコンなどが使われました。
     高速度ビデオカメラ(1972年、米国Video Logic社 Instar、白黒画像)が最初に開発されたとき、カメラの撮像素子にはこのビジコンチューブが使われ120コマ/秒の撮影を可能にしていました。記録媒体は1インチ巾のビデオテープレコーダで、AMPEX社のドラムヘッドを改造して使っていました。 撮像管の残像もなんとか1/100秒以内に入っていたようです。
     
    ● プランビコン(Plumbicon)
     1962年に、オランダフィリップスが開発した光導電形の撮像管です。撮像管の歴史は、感度向上の歴史でもあります。いかに明るくて階調と解像度の高い撮像素子を作るかが、第1命題でした。ビジコン管が撮像管の代名詞となって以降、この素子に改良が加えられて、幾多の撮像管が作られて来ました。プランビコンは、ビジコンの流れをくんだ高感度低残像の優秀なものでした。プランビコンは、光導電体として一酸化鉛(PbO)を採用しました。しかし、このプランビコンは波長感度に問題がありました。通常のプランビコンの波長感度は、λ=400〜650nmであり、赤の感度がなかったのです。赤に弱い撮像管でした。この感度不足を補うために、赤色感度専用にイオウ(S)を添加した赤増感ターゲットが作られました。
    プランビコンは、感度が良く残像特性も良好なことから、初期のカラー高速度ビデオ(1982年、ナックHSV-200、カラー)に使用されました。
     
    ● カルニコン(Chalnicon)
     この撮像管は、1972年に日本の東芝が開発しました。基本構造は、ビジコンと同じですが、ターゲットにセレン化カドミウム(CdSe)を用いて感度と解像力を向上させました。製品は、1インチタイプと2/3インチ(φ18mm)タイプの二つがあり、ビジコンとの互換性が保たれていました。感度が高くなった分、残像も多くなりました。 撮像管時代の放送局用テレビカメラは、野球中継(ナイター)や夜間の車の撮影をすると、輝度の高い照明灯やヘッドライトが尾を引くコメットテイル現象が見えました。放送された映像を見ると、1秒以上尾を引いていたので残像は1秒以上あったことになります。
     
    ● サチコン(Saticon)
     1974年に日本の日立とNHKが共同開発しました。基本構造は、ビジコンと同じでターゲットにセレン(Se)を用いて、その中にヒ素(As)とテルル(Te)を添加したアモルファス膜を採用しました。感度と解像力がよく放送用ハンディカメラに使われました。このチューブは、感度と解像力、そして残像を抑えた撮像素子として開発されましたが、1/100秒以下に残像を抑えることができなかったため、高速度カメラ用には使われませんでした。
     
    ● その他の撮像管
     この他にも、たくさんの撮像管があります。ビジコンの流れをくんだニュービコン、シリコンビジコン、高感度撮像管のイメージオルシコン、イメージアイソコン、などがありました。
     
    ● SEC管(Secondary Electron Conduction tube)  (2000.09.14)(2008.11.04追記)
     SEC管は、科学技術の世界では忘れてはならない撮像管です。この撮像管は放送業界では使われることはありませんでしたが、宇宙開発を行っていた米国NASAの要請で開発されました。SEC管は、1969年、NASAがアポロ計画で月に持って行った小型携帯テレビカメラに使われました。この事実は、宇宙開発にとって映像装置は大変重要な計測と記録要素を持っていたことが伺えると共に、カメラまで独自に開発してしまうほど性能(特に感度)を重視していたことを物語っています。
     SEC管は、NASAがWestinghouse社に開発を依頼して1963年に完成させました。華々しいデビューを飾ったのは、アポロ11号が月に持って行った1969年ですから、撮像管を開発してから6年をかけてシステムの作り込みをしたことになります。
     
    ■ SEC管の開発背景
     NASAは、なぜビジコン管をはじめとした当時の放送局用の撮像管を使わずに、SEC管の開発を決めてWestinghouse社にシステムの開発を要請したのでしょうか。その理由は、1にも2にも撮像管の感度であったようです。当時、放送局で使われていたテレビカメラは感度が悪く、夕暮れや曇り空での撮影は困難でした。当時(1960年)は、テレビカメラを屋外に持ち出すことはめったになく、撮影はすべてスタジオで行われていました。その理由は、感度ももちろんでしたがテレビカメラの大きさ(重さ)や、取り回しの悪さ、中継車の大きさなども絡んでいました。日本のテレビ放送で、本格的に屋外での生中継が行われたのは、1959年4月の皇太子・美智子様のご成婚でした。かなり大がかりの設営のようでしたが、このテレビ中継を境に家庭にテレビ受像機が急速に普及したそうです。
     テレビカメラが外に出るようになったのは、サチコンのような感度の高い撮像管が開発されて、電子回路にトランジスタが採用されてコンパクトなテレビカメラができあがった1970年代後半でした。それまでの屋外撮影では、ニュースソースを含めほとんどの映像記録にフィルムカメラが使われ、フィルム画像をテレシネという装置で電子画像に変換してテレビ放送されていたのです。
     それでは逆に、NASAが採用したSEC管を、なぜ放送局は採用しなかったのでしょう。それは、SEC管は感度が良いものの画質が悪かったからです。このことから、宇宙開発では画質よりも感度が優先されていた当時の事情を知ることができます。NASAは、SEC管が完成するまではVidiconを使っていました。NASAがTIROS(Television Infra-Red Observation Satellite)を1960年4月から次々に大気圏外に打ち上げて、地球上の雲の様子を撮影した時に使われたカメラはVidicon管でした。このカメラは、500ラインの走査線で10秒の時間で画像を得るものでした。明るい雲を10秒かけて撮影したのですから、感度的にはあまり問題なかったものと考えられます。
     また、NASAが火星に探査衛星を送り(マリナー4号、1962年プロジェクト発足、1965年データ通信開始)、火星の地形を画像に収めるプロジェクトにもVidionカメラを使っていました。その当時、SEC管は開発の途上にありました。Vidiconカメラは、200x200画素で6ビットの画像を撮るのに2.5秒もかかりました。Vidicon管はもちろんアナログ撮像素子ですが、長距離通信の関係上、初めてデジタル画像通信が行われました。従って、取り込む画像は解像力が低く撮影速度も遅いものでした。マリナー4号のプロジェクトは、世界で最初のデジタル画像通信でしたから撮影が遅いことは理解できます。従って、取り込みが遅いためにカメラに要求される感度も高いものは必要なく、Vidicon管で満足できたという当時の事情も理解できましょう。Vidicon管が明るければ、SEC管の開発の必要などなかったでしょう。テレビ画像のレートで屋外撮影を行うには、当時のVidiconはまだまだ不十分だったのです。
     NASAは、月に人を送り込むとき、月面での活動を逐次地球から観たいという要求を持っていました。フィルムでは現像を余儀なくされるため、たとえ月に現像機を持ち込んだとしても、これを現像して電子画像に直して地球に送るには時間がかかりすぎました。こうした理由から、NASAは月面活動撮影カメラを作ることを決めたのです。
     ちなみに、アポロ11号では、このプロジェクトのために開発したSEC管によるテレビカメラシステム(ALSC = Apollo Lunar Surface television Camera)の他に、高画質の記録写真を撮るハッセルブラッド、250枚のフィルム撮影をする長尺マガジン付ニコンFカメラ、動画記録用16mmフィルム計測カメラを持ち込んでいました。ハッセルブラッドカメラは、宇宙飛行士の宇宙服の胸に取り付けられ、押しボタン一つで飛行士が見る方向の視界を撮影できるようになっていました。ハッセルブラッドで撮影された写真はとても綺麗で、アポロ計画の記録写真として秀逸な業績を残しました。ただ、これらは当然のごとく現像工程が必要なため地球に戻ってからでないと画像を手に入れることはできませんでした。その意味でリアルタイムのTVカメラシステムは重要だったのです。
     
    ■ SEC管の基本性能
     SEC管の構造を下図に示します。SEC管は、撮像管の区分でみると蓄積形であり、低速度電子ビームタイプのイメージ形に属します。これは感度を重視するタイプです。この図を見ると、SEC管は大きく分けて2つの部分で構成されていることがわかります。左側部が像増強部で右側が通常の撮像管です。右側撮像部は、ビジコン管と同じ構造になっています。左部の像増強部が感度を稼ぐ部位です。この部位は、第一世代のイメージインテンシファイア(光増幅光学装置)と構造が似ています。この部位は光学像を光電面(photo cathode)で受けて電子像を作り、これを加速させてターゲットにぶつけます。ターゲットは、KClやMgOなどの多孔質高抵抗物質でできていて、数kVの電位で衝突した電子像はさらにここで2次電子を放出します(1個の像電子が200個程度の電子に増幅されるので感度が上がります)。ターゲット部は、電子像が衝突する部位が電位「0」になっていて、信号を取り出す面が10〜20Vの電位になっているのでこの電位差によって2次電子が放出されます。
     

     上の図から見ても明らかなように、SEC管には高電圧が使われています。光電面からターゲットに向かって高速(高電圧)で加速された電子が衝突します。強い光が光電面に当たると、当然ながらオーバーロードになり焼き付きや損傷を起こします。画質も電子レンズ(左側の像増強部)が付加されている分だけ悪くなります。
     こうした事情もあってか、SEC管を使用した応用は大きな広がりを見せませんでした。学術用の高感度カメラは、イメージインテンシファイア(光増幅光学装置)を取りつけた撮像管の方が感度が良く取り扱いも良かったので、時代の要求に合わなくなってしまいました。
     SEC管カメラは、当時のビジコン管に比べて50倍程度の感度があったと言われています。当時のスタジオ内の明るさが3000ルクス〜5000ルクスだったとすると、SEC管カメラは、60ルクス〜100ルクスの環境で撮影ができた事になります。この明るさは夕暮れ時の明るさ、もしくはちょっと暗めの室内に相当します。
     
    ■ アポロ11号での活躍
     アポロ11号が月に持って行った月面テレビジョンカメラ(ALSC = Apollo Lunar Surface television Camera)は、米国Westinghouseが6年の歳月をかけて完成させたもので、カメラの心臓部には同社が開発した高感度撮像管SEC管が採用されていました。このカメラは、月面活動で見事に大役を果たし、人類が月面に初めて降り立つ瞬間や宇宙飛行士の月面での活躍をリアルタイムに地球に送って来ました。(リアルタイム映像は、実際は10秒〜30秒程度は遅れたかも知れません。)当時、中学2年生であった私は、テレビでこの中継を見ていてとても興奮したことを覚えています。ただ、画質はお世辞にも綺麗とは言えず、階調も粗く動きも10フレーム/秒の映像のためかぎこちなく見えました。それでも人類が遠い彼方の月にいて、それを実時間でテレビで見られることの科学の壮大さに心ときめいたものでした。コンピュータの威力を知ったのもこの頃です。
     このカメラの開発にあたりNASAが要求した仕様は、以下のものです。
     
    ・ 高感度: 月面での暗闇でも肉眼程度の明るさで撮影できること。
    ・ 耐環境性: 月面での温度、-180℃〜 + 120℃の温度に耐えること。
    ・ コンパクト: 月まで持って行けるだけの大きさであること。
    ・ 操作性に優れていること: 宇宙飛行士が月面で持ち運べること。
    ・ 低消費電力であること: バッテリを消耗しない電力、〜6W。
    ・ 物体の輝度範囲が広い現場での撮影が可能: 月面の夜と昼を撮影。
    ・ 感度が高く露光調整も可能: ゲイン調整機能、レンズリモート絞り。
    ・ 遠く離れた地球へ映像信号が送れること: 500kHzの信号帯域通信。
     
    米国Westinghouse社がNASAのために開発した月面活動用のテレビカメラシステム。
    心臓部に同社が開発したSEC管を採用している。
    月面での活動を考慮してコンパクトな設計となっている。
    カメラは、宇宙飛行士が片手で持って持ち運べる構造とし、月面にスタンドを立ててカメラを固定し、宇宙飛行士の月面での活動を撮影した。
     こうした条件で作られたカメラシステムは、1秒間に10枚の撮像を行い、画面は320本の走査線で構成されるものでした(通常のテレビカメラは30枚/秒で525本の走査線を持っている)。また、スロースキャンモードにすると1.6秒をかけて1280本の走査線(4倍の走査線)で撮影を行う設計にもなっていました。しかし、このモードは実際の月面活動では使われなかったようです。
     カメラは、24V〜32Vのバッテリで駆動し、消費電力は6.5Wでした。宇宙へ持って行く電子機器にとって、電源消費は最も気になる条件です。宇宙船には潤沢に電気を供給するバッテリがなく(次世代の自動車として期待されている水素バッテリは、アポロ計画で実用化されたものです。アポロ計画での月着陸船の電源は太陽電池と水素バッテリでした)、消費される電力は熱になるので消費電力を食う機器は自然冷却もままならずやっかいな問題となります。
     ウェスチングハウス(Westinghouse)社が開発したカメラの大きさは、269mm(L) x 165mm(W) x 86mm(D)であり、その重さは3.29kgでした。これは、当時としてはとてもコンパクトなものでした。当時、放送局で使われていたカメラは180kgもの重さがありました。実に54分の1の軽量化を達成したのです。ウェスチングハウス社は、カメラを月に持って行くために撮像管自体の他にカメラ電気回路をトランジスタ化し、これをさらに集積化しました。現在では当たり前のようになっているハンドヘルド(携行)型カメラも、集積回路(IC)が未熟であった当時としてはこれを作り上げることそのものが画期的な事だったのです。
     月面活動で使われたカメラのアナログ映像信号は通常のNTSC信号で送られずに、それよりも遙かに品質の悪い走査線本数と撮影速度に設定されました。その理由は、月から地球に送る通信回線帯域の問題があったからです。500kHzという低い送信帯域のために粗い画質でしか送れなかったのです。これはNTSC規格の放送における4.2MHzの通信帯域に比べて1/8.4倍の通信量でした。従って、この帯域に抑えるため画像も間引きせざるをえなかったのです。地球に送られてきた月面からの(アナログ)映像は、地上受信局でいったん10インチ(254mm)の特殊スロースキャンモニタに映し出され、これをビジコンカメラ(モデルTK22)で再撮影して(一種のテレシネ作業で)通常のNTSC映像信号に直して放送局に送り、全世界に月面活動の映像を流しました。
     
     
    ● ハーピコン(HARPICON)(HARP撮像素子) (2000.07.28)(2008.09.23追記)
     HARP管は、1985年に日立とNHKが開発した高感度、低残像、高解像力の撮像管です。HARPICONは日立の登録商標なので、現在ではHARP管と言う呼び名が一般名詞となっています。HARP管は、当初、日立製作所が製造していましたが、現在(2008年)では、電子管製造で有名な浜松ホトニクス(株)が引き続き製品の製造、開発を行っています。浜松ホトニクスでの商品名は、APイメージャーです。
     HARPは、High-gain Avalanche Rushing amorphous Photoconductorの略で、光に感度のあるアモルファスセレン(a-Se)膜をアバランシェ増幅ができるようなターゲットとして作り上げたものです。アモルファスセレンは、1974年に日立が開発したサチコンと同じ光導電膜です。1995年当時のHARP膜は、約25ミクロンの厚さで、この膜の間に最大2,500Vの電圧を印加しておくと光の増幅作用が最大約6,000倍に達しました。この値は、高感度撮像管で有名な撮像管サチコンの600倍の感度を持っていると言われました。
     HARP管は、撮像管としてはおそらく最後で究極的なものと思われます。感度が非常に高く、暗い被写体の撮影に威力を発揮します。深海の観察や、オーロラ、日食の撮影、夜間動物の観察などに使われています。報道番組においても、1995年6月に函館で起きた飛行機乗っ取り事件で薄暮の飛行場撮影にこのカメラが活躍しました。NHKのハイビジョン用カメラとして、また高速度カメラ用としても高感度、高解像力、低残像の特性が活かされました。ただ、HARP管は温度管理などメンテナンスに細心の注意が必要であり、一般的な使用では(雑な使用をすると)特性がでなくなってしまうため、専門家を擁する分野で使われるもののようです。また、撮像管ですから電子シャッタ機能はなく、露光時間は1/撮影速度となります。
     HARP撮像素子の開発は、1980年代、NHKがプロジェクトを進めていたハイビジョンカメラ用として出発します。ハイビジョンカメラでは、感度が良くて解像度の良い撮像素子の必要性に迫られていました。特に感度の要求の点から、固体撮像素子よりも光導電型撮像管が今だ有利という判断によってこの撮像管の開発がスタートしました。HARP管は、1985年に開発されてから4回の改良が施されました。改良は主に光電変換膜厚で、開発当初は2umであった膜厚を2003年の4代目では35umの厚いものにしました。これによりサチコン管と比べた感度が1985年の約10倍から約1,000倍に向上し、残像も低減されました。残像は、1985年当時は、50msで4.6%の残像があったそうです。
     1992年、キヤノンは、2/3インチHARPICONチューブを用いた放送局用の高速度カメラを開発しバルセロナオリンピックに投入しました。このカメラは、180コマ/秒の撮影ができました。シャッタ機能は、撮像管自体にシャッタ機能がないので、ハーピコン光電面の前に取り付けた同期回転円板シャッタを使って1/3,600秒を実現していました。解像力は800本以上、撮影感度はASA(ISO)換算で1500でした。ちなみに、このカメラの記録にはICメモリが使われました。ICメモリと言っても現在(2008年)のように大容量で高速のものがなかったため、60MHzの記録帯域を確保して5400枚の記録を行ったため大がかりなシステムになり、メモリ部はラックマウント形式で210kgの重さがあったそうです。
     1992年 ナック(現:ナックイメージテクノロジー)からもハーピコン管を使った高感度高解像力ハイスピードカメラが開発され、顕微鏡撮影分野などに使用されました。
     
     
    ■ 電子管によるその他の撮像素子  (2000.09.14)(200810.24追記)
     撮像管の時代が終わって、CCD・CMOSなどの固体撮像素子が主流になっている現在においても、特殊な分野では電子管技術を用いた撮像素子が使われています。
     
    ● イメージコンバータ管(Image Converter Tube、転像管)
     
    1960年代〜1990年代に活躍したフレーミング式イメージコンバータチューブ。
    50ナノ秒の露出時間と、
    20,000,000コマ/秒の撮影が
    可能であった。
    高速度画像は、イメージコンバータチューブ蛍光面(右図)に投影された。
    蛍光面に、一度に最大24枚の画像を次々とシフトしながら撮影。
    時間間隔は最小50ナノ秒。
    これを蛍光面に密着させたインスタントフィルムで記録した。
    ストリーク撮影も可能。
       
      イメージコンバータカメラで撮影した
      衝撃波の高速度撮影(1994年)。
      撮影速度100,000コマ/秒。
      被写体は、アジ化銀(一種の爆薬)の水中爆破。
      2000年までは、100,000コマ/秒以上の高速度撮影は、
      イメージコンバータカメラでなければ不可能であった。
    転像管とも訳される特殊撮像管です。
    高感度撮像装置のイメージインテンシファイアも一種の転像管です。
    イメージコンバータ管は、真空管の両面が光電面(入力面)と蛍光面(出力面)から構成されていて、光電面に入射した光学像は素子内部で電子像に変換(イメージコンバート)されます。この電子像が蛍光面に当たって(ブラウン管のように)可視光像になります。
    これは、電子レンズを使った像変換素子と言うこともできます。
     転像管の利用価値はどこにあるのでしょうか。
    光学像を電子像に変換し、再び光学像に直すという回りくどいやり方をなぜ取るのでしょうか。
    その理由は、転像管を使った電子像変換には以下に示す特徴があるからです。
    1. 可視光以外の光を可視化することができる(紫外光、赤外光、X線)。
    2. 電子レンズと偏向回路によって高速シャッタリングを行うことができる。及び複数枚の高速度画像が得られる(フレーミングで20,000,000コマ/秒、ストリークで数ピコ秒/mm)。
    3. 電子レンズによって像強度の増幅を行うことができる(高感度)。
     この特徴によって、1960年代からイメージコンバータチューブは発展を遂げ、いろいろな派生転像管が作られました。
     右に示すイメージコンバータチューブは、20,000,000コマ/秒のフレーミング撮影ができる超高速度カメラ用で、1990年に開発されたものです。フレーミング(framing)と言うのは、ストリーク(streak)という撮影法の対になる言葉で、2次元の拡がりを持った通常の画像のことを言います。ストリークというのは、流し撮り写真のことで、身近な例では競馬の写真判定や、陸上100m走で使われる撮影手法です。固体撮像素子のラインセンサーもストリーク撮影法の顕著なものと言えましょう。
    イメージコンバータカメラのストリーク撮影は、ラインセンサーと比べて桁違いに速いラインの取り込みを行います。
     
    高速度カメラ用のイメージコンバータチューブは、1960年代から英国、米国、ソビエト連邦、日本で開発、製作が行われていました。1960年から2000年までは、超高速度カメラ(10,000コマ/秒以上)は、イメージコンバータチューブを使ったものが一般的でした。右に示すイメージコンバータチューブは、エンベロープにセラミクスチューブを使うというユニークなものでした。
     イメージコンバータカメラは、フレーミング撮影よりはピコ秒の時間分解能が得られるストリークカメラに大きな特徴が見いだされて、現在も超高速現象を解明する計測装置としてプラズマ発光現象解明の分野やレーザ励起現象分野で使われています。
     
    また、以下に述べるX線イメージャイメージインテンシファイア(I.I.)も、転像管から進化を遂げたものです。
    光電面を持つ撮像管は、テレビカメラの撮像管としては生きる道が閉ざされたものの、こうした特殊な分野では今も大切な役割を担っています。
     
     
     
    ● X線イメージャ(X-ray Imager) (2008.11.05追記)
     X線は、量子エネルギーのきわめて高い光であるので、可視光に反応する光電膜では電子像に変えることはできません。また、X線は直線性が強いため、容易に屈折、反射を起こしません。このことは、X線を使った撮影はレンズやプリズムなどの光学素子が使えないことを意味しています。したがって、X線イメージャを使わないX線撮影では、大きな記録面を持った(X線に感度を持つ10cmx12cmなどの銀塩フィルムによる)直接撮影法がとられていました。しかし、小さいフィルムサイズで大きな撮影部位を得たい場合や(大きな乾板フィルムは高価で、かつ取り回しが悪い)、たくさんのX線陰影撮影を行いたい場合、または、短期間に集中してたくさんのX線撮影を行いたい場合は(1秒間に複数枚の動画像を得たい場合)、以下に示すようなX線イメージャ(間接撮影)を必要としました。医学分野でのX線撮影には、このようなX線イメージャが良く使われて発展をしてきました。
     X線イメージャは、以下の3つの部位から成り立っています。すなわち、
    (1)エネルギーの高いX線エネルギーをいったん可視光に変えるシンチレータ部、
    (2)可視光像を電子像に変える転像管部、
    (3)転像管の出力部(蛍光面)で再度可視光になった像を撮影する撮像素子部、
    の3つの部分から構成されます。
    代表的なX線イメージャの外観。
    入力面は球面形状でアルミ薄板か
    ベリリウムで覆われる。
    大きさは対象物の大きさで決定される。
    資料提供: 浜松ホトニクス(株)
    (1) シンチレータ(Scintillator)部
    X線は、量子エネルギーの高い光です。この光エネルギーを準位の低いエネルギー(可視光)に変換するのがシンチレータ(Scintillator)と呼ばれるものです。X線は紫外線エネルギー以上に量子エネルギーが高いので、いろいろな物質を励起させる力を持っています。しかしエネルギーが高いので励起させずに透過してしまうこともあります。従って、使用するX線エネルギーに対して効率よくエネルギーを吸収して可視光を発光するものが求められます。こうした物質の中で最も効率よく可視光を励起し、物質自体の粒子も細かくて、かつ使用環境で安定した構造を持つものが、ヨウ化セシウム(CsI)です。このシンチレータは、X線によって励起して420nmにピークを持つ青色の可視光の蛍光を発します。この発光は、転像管の光電面との相性がよく効率の良い電子変換ができます。また、ヨウ化セシウムは、沃素とセシウム双方の原子量が大きいためX線エネルギーを吸収しやすいという性質から理想的なシンチレータと言えます。従って、X線のシンチレータとしては、この蛍光剤が最もよく使われます。
     ヨウ化セシウム(CsI)がX線I.I.のシンチレータとして使われるようになったのは、1963年以降で、1972年から医療用として米国Varian社、オランダPhilips社、フランスThomson社、ドイツSiemens社が採用を始め、日本でも1974年に東芝、1976年に島津製作所が市販化しました。CsIがなぜこれほどまでに認められるようになったかというと、材質の原子量の重さやX線吸収係数、発光ピークの特性もさることながら、非常に緻密に(ぎっしりと)蒸着膜を形成できることにありました。CSIは基板上にほぼ垂直に結晶構造(断面が10um以下)を作ることができるので、それまでの沈殿法やスラリー法の膜状塗布よりも高密度のシンチレータ部を形成できるようになったのです。
     入力部のシンチレータがなぜ曲面を描いているかというと、転像管部の電子レンズが凸レンズ効果だけなので、この電子レンズでは像面湾曲収差が取りきれないからです。そのためにX線像を受ける入力部(シンチレータと光電面)は曲面形状になっています。
     入力窓は、窓材の保護のためにアルミニウムかベリリウムで覆われています。通常はアルミニウムの薄膜が使われますが、弱いX線光源を使う場合には、この窓材部分で吸収が起きてしまうので、アルミニウム材に代えてベリリウムが使われます。しかし、ベリリウムは高価なことと毒性が強い材料のため、弱いX線エネルギー用や小さい口径のX線イメージャー用に限って使われます。
    (2) 転像管部
    転像管は、シンチレータ(CsI)によって青色(420nmピーク)蛍光像を背後で直接コンタクトしている光電面で受けて、電子像に変換し、蛍光面で再び可視光像に変換するものです。
    転像管をなぜ使うのかと言えば、以下の理由によります。
     
     1. X線像をカメラで撮影できるように光学像を縮小するため。
     2. 縮小した画像を動画撮影を行うために、フィルムカメラや撮像管、
       CCDなどの撮像素子を取りつけるため。
     3. X線が微弱なために(つまり、強いX線光源が作れない、または、
       被爆が大きいため強い光源が当てられないために)X線像の光増幅を行う必要がある。
     
     転像管は真空管ですから装置には高電圧がかかります。
    転像管の撮影倍率は、シンチレータ部の入力窓の大きさと出力蛍光面の大きさの比で表されます。
    M = a / A
      M :撮像管の撮影倍率
      a :出力蛍光面の大きさ
      A :入力部(シンチレータ部)の大き
    X線イメージャの入力面径は、10cm〜57cm(4インチ〜22.5インチ)が市販化されていて、大型のものほど医療用(消化器、循環器)に製造されています。出力蛍光面の大きさは、φ60mmが一般的です。従って、X線イメージャの撮影倍率は、
    M = 1/1.7 〜 1/9.5
    となります。蛍光面はφ60mmと大きいので、CCDでこれだけ大きい素子はありませんから、直接ファイバーカプリングをせずにリレーレンズを使って縮小して撮影を行います。
    (3) 撮像部
    撮像部は、転像管で形成された光学像を記録するためのものです。1990年代までは、フィルムカメラや撮像管カメラが使われていました。最近では、CCDカメラが使われています。転像管の出力部は可視光を発する蛍光面になっているため、ここで作られる光学像をリレーレンズによってカメラに導きます。
    リレーレンズに代えて光ファイバーで直接カメラとカプリングする方法もあります。この方が光の転送効率が良いので1桁以上も明るくなります。しかし、ファイバーカプリングの場合は、以下の問題がありますので、取り扱いには注意が必要です。
    1. ファイバー繊維系の大きさとCCD撮像素子の画素サイズの選択を間違えると、解像力が極端に落ちる。
    2. 両者の兼ね合いでモアレ(干渉縞)が現れる。
    3. ファイバーカプリングでは、X線エネルギーの入射光路とカメラの撮像面が直線に並ぶために、
      X線エネルギーがシンチレータ部で十分な吸収が行われない場合、撮像面に直接照射される危険があり
      撮像面にダメージを与えることがある。
     
     
     
    ● イメージインテンシファイア(Image Intensifier)
      イメージインテンシファイア(Image Intensifier、I.I.)は、超高感度の撮像管素子です。光増幅の度合いは、1,000倍から100,000倍の性能を持っています。しかし、1,000倍もの光増幅をすると言っても、日中の明るさの対象物を1,000倍に明るくできるわけではありません。イメージインテンシファイアの出力(蛍光面)の明るさは限度があるため、蛍光面の明るさに比べて1,000分の1程度の暗い対象物の明るさを増幅できるという意味です。I.I.の蛍光面はそれほど明るくありませんので、つまるところ非常に暗い物体を人が見えるぐらいに明るくする装置と考えてよいと思います。
     この装置は、放送局用のテレビカメラに積極的に使われることはありませんでしたが、学術用(微弱光検出)や夜間などの低照度条件下の撮影に使われました。
     イメージインテンシファイアは、1940年代前半、米軍の要請によってテレビカメラを開発していたRCA社(Radio Corporation of America)のツボルキン(Zworykin:1889 - 1982)が開発しました。この装置は、夜戦用の秘密兵器として開発が行われ、暗視装置(Night Vision Device = NVD)と呼ばれました。
     現在も軍事戦略用の有効な装備品としてNVDの改良、開発が続けられています。現在では4世代目のものが作られています。
     
     左に示した図は、第3世代の近接型イメージインテンシファイアを光ファイバーでCCD素子とカプリングした高感度カメラの構造図です。ICCD(Intensified CCD)という呼び方が一般的です。近接型というのは、インテンシファイアの入力面(光電面)と出力面(蛍光面)が隣り合うくらいに薄くなっている構造を言います。従来のインテンシファイアより薄くなった(近接した、proximity)、という意味で近接型イメージインテンシファイア(Proximity focused Image Intensifier)と言います。このタイプでは、像の増幅は、装置中央部に配置されたMCP(マイクロチャンネルプレート、Micro Channel Plate)で行われています。MCPは、0.5mm程度の薄いガラス板で、これにφ10〜12μmの孔が無数に空けられ(φ25mmで数百万個)、両端に100V〜900Vの電圧をかけ光電面からの光電子を1,000倍程度の2次電子に増やすものです。印加される電圧が高いほど二次電子がたくさん放出されるので増幅が大きくなります。
     I.I.(あいあい)は、開発当初、夜間の人の目を助ける道具で作られたのが、テレビカメラやフィルムカメラの前面に取り付けられる記録装置になり、近年ではファイバーで固体撮像素子と結合される製品となりました。明るさの調節は、ゲインによって増幅率を変えています。ゲインはマイクロチャンネルプレートに印加する電圧の調整で行います。また、光電面に加える電圧をパルスにして、パルス電圧が加わったときだけ光電面からの電子が放出されるようにすると、短時間の撮像が可能になり電子シャッタの働きをするようになります。電子シャッタは、数十ナノ秒から数ミリ秒まで任意のシャッタ時間設定が可能です。
     
    イメージインテンシファイアの詳しいことは、光の記録原理 その4 - 光増幅光学装置 に載せていますので、そちらを参照して下さい。
     
     
    ● 電子顕微鏡(Electron MicroScope)
     電子顕微鏡もれっきとした電子管であり、撮像管の一種です。光学顕微鏡では解像しない極微少物体の拡大を得意としています。
    電子顕微鏡では、拡大したい対象物を電子管(真空管)の中に入れなければならないので、揮発するもの(水分を含んだもの)や生きた生物を見ることはできません。
     電子顕微鏡の構造を見てみると、撮像素子の原型であるフライング・スポット・スキャナー(FSS、Flying Spot Scanner)に多くのアイデアを得ていることがわかります。
     電子顕微鏡は、大きく分けて、
     
     ・ 透過型電子顕微鏡
        (Transmission Electron Microscope、TEM)
     ・ 走査型電子顕微鏡
        (Scanning Electron Microscope、SEM)
     
    の2種類に分けられます。
     
    ■ 透過型電子顕微鏡(TEM)
     透過型電子顕微鏡(TEM)は、分解能の高い拡大画像を得ることができ、0.3nm程度までの識別ができます。光学顕微鏡では100nmが限界なので、光学顕微鏡よりも1,000倍の分解能を持つことになります。電子顕微鏡の分解能は、電子ビームが試料に照射する加速電圧とビームの絞り角度で決まるので、電子ビームを100kVで加速し、0.01rad( = 0.573 °)で集束させた時に0.3nmの分解能を得ることができます。0.3nmの大きさは、重い金属原子の直径に相当するものです。電子顕微鏡の分解能をさらに上げるには、電子ビームの絞りをさらに小さくするか、もしくは加速電圧を上げる必要があります。あまり強く電圧を設定しますと、試料を破壊しますので加速電圧にはおのずと限度があります。分解能は、透過型電子顕微鏡(TEM)の方が走査型電子顕微鏡(SEM)よりも1桁ほど優れています。
     透過型電子顕微鏡は、試料中を電子が通過して、これをさらに拡大して蛍光板に投影します。光学顕微鏡の透過型顕微鏡(生物顕微鏡)と似ています。従って、試料は電子ビームが透過できるための薄さ(数100nm)でなければなりません。厚い試料は透過型電子顕微鏡では使用できません。また、試料は真空容器に入れられますから、試料作りは結構手間のかかるものとなります。
     
    ■ 走査型電子顕微鏡(SEM)
     透過型電子顕微鏡に対し、走査型電子顕微鏡(SEM)は試料の表面を拡大するので試料の厚さは透過型電子顕微鏡より厳しくありません。分解能は、透過型電子顕微鏡より1桁低く(3nm)なるものの、物体表面を深度深く映像化することができます。この深さは、光学顕微鏡の100倍以上と言われています。この特徴を活かして、病原菌やウィルスの発見など光学顕微鏡では難しい微小生物や、金属の微小表面の立体的な観察に威力を発揮しています。
     走査型顕微鏡では試料に電子を照射し試料から出される2次電子を検出するため、二次電子を放出しやすい試料にする工夫が必要です。このため試料を樹脂で固めて型を起こし、これに金メッキ処理を施して真空装置に入れ、これを観察するやり方をしています。いずれにしても、生きたものや液体成分を伴う試料は扱うことができません。
     電子顕微鏡は、電子ビームを試料に直接当てますので電子ビームによって試料が破損することがあります。高い電圧を加えるほどその度合いが大きくなります。分解能を上げるには、加速電圧を高くしなければならないので両者は相反することになり、最適な条件出しが重要な運用上のテクニックになります。
    また、当然のことながら試料上を電子ビームが走査しますので映像を作るには時間がかかり、走査におよそ1〜2分程度かかります。透過型電子顕微鏡(TEM)は、試料上を電子ビームが走査するという手順がないので、拡大画像はリアルタイムに得ることができます。
     
    【歴史】
     透過形電子顕微鏡は、1931年にドイツベルリン工科大学のエルンスト・ルスカ(Ernst August Friedrich Ruska、1906 - 1988)とマックス・クノール(Max Knoll、1897 - 1969)によって開発されました。ルスカは、その後もテレビジョンと電子顕微鏡の研究に関わり、電子顕微鏡開発後の55年経った1986年、ルスカ80歳の時に電子顕微鏡開発の功績でノーベル物理学賞を受賞しています。同じ研究に従事したクノールは、ノーベル賞の対象になる前にこの世を去っていて、彼の没後17年にしてやっとルスカが受賞の栄誉を与えられました。
     右上に示す走査型電子顕微鏡は、1937年ドイツの物理学者マンフレッド・アルデンネ(Manfred von Ardenne、1907 - 1997)によって開発されたものです。アルデンネは、1920年に以下に示すフライング・スポット・スキャナーも考案しています。このことから、走査型電子顕微鏡はテレビカメラ技術の一環として着想されたことが伺えます。アルデンネは発明家で、たくさんの発明をして特許を取得しています。しかし、彼の発明の多くは熟成させるまで関心を寄せることがなかったようです。走査型電子顕微鏡も、実用機ができるのは1965年になってからです。イギリスケンブリッジ大学のチャールズ・オータリー(Charles Oatley、1904 - 1996)らの手によって、装置に改良が加えられて、やっと使えるものになったと言われています。走査型電子顕微鏡を開発するにあたっては、開発の難しさの一つに像を鮮明に形成す技術がありました。ケンブリッジ大学のOatleyは、E-T検出器(Everhart - Thornley Detector)や付帯設備を改良して走査型電子顕微鏡の実用化にこぎ着けたのです。彼が実用機を作るまでの間でも、他の研究者、例えば、米国RCAのツボルキン(Zworykin)らも開発に関わっていました。しかし、当時はテレビカメラの開発の方が急務であったらしく、電子顕微鏡の改良には深く関わり切れなかったようです。ツボルキンは、シンチレータから得た映像信号をファクシミリ手法を使って画像化していました。ブラウン管上に画像を表示させるようにしたのは1960年代後半になってからです。
     
     
     
    ● フライング・スポット・スキャナー(Flying Spot Scanner、FSS)
     走査型電子顕微鏡の原型を、フライング・スポット・スキャナー(FSS)に見ることができます。FSSは、テレビカメラの初期モデルとして着想されました。この発想が、走査型電子顕微鏡とテレシネ装置に生かされました。
     右図に示したのがフライング・スポット・スキャナー(FSS)の原理図です。図の上部にある高精度CRTが、走査型電子顕微鏡の電子銃に相当します。そして、スポットビームを対象物に投影する結像レンズが走査型電子顕微鏡の電子レンズに相当します。CRTのラスター走査は、結像レンズを介して対象物上にビームが走ることになります。
     この装置は、撮像管によるテレビカメラができるよりも前の1920年代に発案され、テレビシステム開発における貴重なデータを提供しました。この装置の発案は、走査型電子顕微鏡を発明したドイツ人発明家マンフレッド・アルデンネ(Manfred von Ardenne、1907 - 1997)です。FSSと走査型電子顕微鏡は同一人物が発明したのです。
     FSSは、撮像管が開発された後もテロップ読み取り装置やフィルム画像の読み取り装置(テレシネ、Telecine)として使われ続けて来ました。レーザが発明されてからは、高精度CRTに代えてレーザビームで試料を走査するFSS装置が開発されています。
     右図の原理図が示すように、物体は凹凸の激しいものは撮影しにくく、また、発光体や屋外風景などの撮影は不可能です。つまり、平面的な対象物、文書やスライドなどの撮影に適したものでした。また、この装置は、真っ暗な部屋で行うか装置を全暗室状態のカバーを被せる必要がありました。その意味では、この装置がテレビカメラとして主役の位置に座るのは困難でした。
     FSSに使われた高精度CRTは、輝度が高くてビーム径が小さく、なおかつ残像の少ない平面度の良いものが望まれました。
     最盛期のFSSに採用されたCRTは、蛍光面にP24と呼ばれる蛍光剤を使用していました。これは、ピーク波長が500nmで、残光は1.5usで10%の減衰を持ち、100uAのビーム電流で100 ft-L(フートランバート)の輝度が得られるものだったそうです。100 ft-Lは、照度で換算すると6,000ルクス程度の明るさと同じになります。この明るさをF/2.0の明るさを持つビーム結像レンズで試料に照射すると、試料面は60ルクスの明るさで照射されます。
    60ルクスの被写体はかなり暗いものです。これは薄暗い室内の明るさです。これは、1920年〜1960年当時の撮像管ではとても撮影できないもので、高感度のフォトマルを使わないと試料から散乱するビームスポット光を検出できなかったろうと想像します。
     被写体を検出するフォトマルチプライヤは、高感度でS/Nが良く暗電流の低いものが使われました。
     この装置は、映画をテレビで上映するときに、フィルム像をテレビ信号に変換する装置(テレシネ)として使われました。フィルム像は、透過像なので反射像に比べて撮影条件が1桁以上楽になります。
     
     
     
     
     
     
     
    ■ 画像信号を記録する (2007.11.22)(2008.01.26追記)
     
     カメラで撮像した画像を記録するにはどのような方法があるのでしょうか。
    テレビカメラが登場した1940年代、テレビカメラで撮らえた画像を記録する装置(例えば、ビデオテープレコーダ装置)はありませんでした。テレビカメラは、家庭の受像機(ブラウン管)と直結していたのです。つまり、テレビカメラで撮影した画像はそのまま電波として送信され、時間の遅れなく各家庭に一方通行で送られていました。放送局から家庭の受像機までの間には、画像を保存するという手だてはありませんでした。したがってニュースなどはもちろんドラマやトーク番組などはすべて生放送でした。当時、映像を記録する手だては映画しかありませんでしたから、現場で起きたニュースなどは映画フィルムで撮影して現像所に送り、現像から上がったフィルムを映写して、それをテレビカメラで再度撮影してテレビに流すという方式(テレシネ = Telecine放送)を採用していました。この方式は、ビデオテープレコーダが開発された後も続き、1970年後半まで主力でした。
    1970年後半になると、テレビカメラと映像記録媒体である磁気テープがコンパクトになって屋外に持ち出すことが可能となり、1980年以降、録画装置一体型ENGカメラ(Electronic News Gathering)が発達します。ベータカム = Betacamが1982年に発売されてからは、急速にビデオの時代になっていきました。家庭用でも、1989年に発売された8mmビデオテープとCCD撮像素子を一体化した Handycam TR-55の開発と成功によって、真のビデオの時代が到来しました。
     
     ここで動画像の歴史的な流れを整理しておきましょう。
     

     

     
     上の表からもわかるように、動画は映画から始まりました。その後、テレビ放送が始まりテレビ放送規格が大きな位置を占めるようになり、動画像の代表的なフォーマットの一つになっていきました。そしてさらに、パソコンの発展に伴ってパソコンに有利な動画像のフォーマットが規格立案されて行きました。
     要するに、動画像は大きく分けて3つの流れがあると考えます。
    三者は互いに影響を与えながら、しかしそれぞれの事情を持ちながら発展してきました。それぞれの事情とは、
     
       ・ 映画が24コマ/秒の上映速度であり、
       ・ テレビ放送が30フレーム/秒、525本走査線の電波放送であり、
       ・ パソコンがCPU性能を考慮した再生速度可変前提の再生動画像、
     
    という事情です。この中でパソコンの動画の規格が比較的ルーズです。
     パソコンで動画づけを初めておこなったのはアップル社です。同社が開発したQuickTime(クイックタイム)という規格は、コンピュータの性能に合わせて再生速度を変化させながらメディア(画像、音声、テキスト)の同期再生を行うという技術です。この規格には、テレビ放送規格で大前提となっている30フレーム/秒の再生速度を守ろうという考えは全くありませんでした。この約束を守ろうとしたら、当時(1991年)のデジタル技術ではとてもできなかったに違いありません。640x480画素のデジタルカラー画像を1秒間に30枚送るためには、221.18Mbpsの速度が必要です。この速度はギガビット転送の2008年においても苦しい性能です。ネットワーク転送は、交通渋滞に似たデータ転送渋滞があったりエラー発生が伴うため、ギガビット転送でも十分な転送帯域を確保できません。この問題はビデオ圧縮技術の発展によってデジタルテレビ放送やデジタルビデオレコーダ、パソコン動画に光明をもたらします。ビデオ圧縮は、通常のデータ量の1/100〜1/200で動画像を伝送することができるので通信上とてもありがたい技術となりました。
     
     
     
     
    ▲ テレシネ装置(Telecine) (2008.08.09記)(2008.10.25追記)
     テレシネ装置とは、映画フィルムをテレビ信号に変換する装置です。映画フィルムをテレビで放映する場合、映画フィルムを特殊映写機に掛けて、それを特殊テレビカメラで再度撮影しビデオ信号に変換して放送していました。テレシネ装置が使われたテレビ番組は、映画番組やコマーシャル、ドラマ、ニュース番組でした。ビデオテープレコーダの性能が上がらなかった1970年代までは、録画によるテレビ放送の中心は映画カメラによるフィルム撮影でした。フィルムで撮影された動画像をテレシネ装置で映像変換して放送していたのです。 映画は24コマ/秒で撮影して上映されるので、劇場映画をテレビで放送するときにはテレシネ装置を使います。もっとも今は、フィルムで撮影した動画像もデジタル画像におき変えられて保存されるので、デジタル画像を映像信号に直してテレビ放送に乗せるようになっています。
     映画とテレビの撮影方式には大きな問題がありました。映画フィルムは1秒間に24枚の撮影を行って再生しています。しかし、テレビ放送(北米と日本のNTSC方式)では、1秒間に30フレームの画像を送っています。テレシネ装置では、両者の撮影速度の整合性を取らなければなりません。 映画フィルムを24コマ/秒で再生しながら、テレビカメラ30フレーム/秒で撮影し直す機構をテレシネ装置に持たせねばなりませんでした。
    フィルム画像を4コマ送る間に、テレビ画像は5フレームの映像を作らなければなりませんでした。
     
    【2-3プルダウン方式】(2-3 pull down method)
     映画とテレビの再生速度を調整して、映画フィルムをテレビで不都合なく放送できるようにするテレシネの方式が、2-3プルダウン方式と呼ばれるものです。
    この方式は、簡単に言えば、フィルムの映写速度を一定速度で再生するのではなく、コマ毎に若干変えてテレビの再生速度に合わせる方法です。つまり、映画フィルムの最初の1コマ目をテレビの2フィールド分で取り込ませて、次の2コマ目をテレビの3フィールド分で取り込ませる方式です。
    従って、映写機は、1コマ目である奇数コマを1/30秒(テレビ画像の2フィールド分)で送って、2コマ目の偶数コマを1/20秒 = 3/60秒(テレビ画像の3フィールド分)で送るという機構を持たせています。映画の画像送りを1コマずつ1/60秒の時間差で交互に変えているのです。
    このように、映画フィルムのコマをテレビ画像の2フィールド分、3フィールド分、2フィールド分、3フィールド分、----- という時間間隔で交互に送っていく方法を2-3プルダウン方式と呼んでいます。プルダウンというのは、フィルムの掻き落としのことを言います。フィルムのパーフォレーション(孔)に掻き落とし爪が入って、フィルム1コマずつ送る機構のことを掻き落としと言っていました。
     テレシネの映写機では、1コマ目と2コマ目では、
        1/30 - 1/20 = -1/60 (秒)
    1/60秒だけ長く時間をかけて掻き落とされますが、2コマ分の合わせた時間は、
        1/30 + 1/20 = 5/60 = 1/12
    となって、1秒間で24枚送られる映画のコマの2枚分の時間と同じになります。
    また、この方式では、映画の2コマ分がテレビの5フィールド分に相当しますので、映画24コマでは、
        5 (フィールド/2コマ) x 12 (2コマ/秒) = 60 (フィールド/秒)  
    となって、映画の24コマ/秒でテレビの30フレーム/秒(60フィールド/秒)の再生速度と整合性がとれることになります。(右図参照。)
     
     このことから、以下のことがわかります。
     
      1. テレシネの映写機は定速コマ送りでなく
        1コマずつ送り時間を変えていた。
        送り時間は、奇数コマが1/30秒で、
        偶数コマが1/20秒。
      2. テレビの1フレームの画像は映画のコマと対をなしておらず、
        2フィールドで構成されるテレビ画面の4割(5フレーム分のうち2フレーム分)は
        映画のコマの前後の映像を混ぜ合わせてフィールド画像として取り込んでいる。
     
    従って、テレビの1フレーム(2フィールド)で構成される画面の4割は、映画の前後のコマの相乗りの混ぜもの画面となります。テレビ画面を静止させたら二つの画像が重ね合わさった画面が出るはずです。しかし、逆に、混ぜものにした方が連続して見た場合にスムーズに見えます。
    マンガなどで、動きのある絵を描くときわざと動きの方向に流しボケを作るのと同じ考えです。そうしないとギクシャクした画像になります。
    仮に、映画の3コマをテレビの3フレームに当て、映画の4コマ目をテレビの2フレーム分に当てて整合性を取ったとしたら1秒間に6回の割合で2枚同じ画面が出てきてギクシャクした映像になってしまうでしょう。ギクシャクした画像を抑制した代わりに、テレシネの画像は、一枚一枚の画像の時間間隔が不均一で、二重画像で構成されるフレームが多くなりました。上の図で言うと、テレビレートの1、2、5枚目の画像は時間の揃った映画のコマが撮像されるのに対して、3枚目と4枚目は映画のコマをまたいだ画像となっています。テレシネ画像から画像解析をする場合には、二重画像と時間軸のブレを考慮して行わなければなりません。
     このテレシネで採用された2-3プルダウン方式は、映写機に特殊な送り機構を要求しました。映写機にこのような変則的な時間間隔で送り機構を持たせることは、当時のモータ制御技術ではできませんでしたから(1980年代までのモータは一定回転というのが原則)、ユニークなカム機構(オルダム継ぎ手と三角カム機構)によって、モータの一定回転から1コマずつ送り時間を変えるという回転機構を作り出していました。
     
     話は余談になりますが、映画がなぜ24コマ/秒なのにテレビは30フレーム/秒なのでしょう。背景を知らない我々は、同じにしたらよいのにと思います。しかし、こうした背景には、技術的な問題やコスト的な問題、政治的な問題(特許や販売権)が多く絡んでいることが少なくありません。再生速度の問題に関しては、映画の再生速度を十分に考慮せずにテレビ開発が行われ、テレビ開発では再生速度は商用電源周波数と同じに決められました。これは、商用電源の周波数がハムノイズとなってテレビカメラや受像機に影響を与えるのを防ぐ目的がありました。映画も、必要かつ十分なフィルム送りを経験から割り出して24コマ/秒としました。映画フィルムは高価なので、できるだけコマを使いたくない事情がありました。映画の初期(音を入れない無声映画時代)は、16コマ/秒だったのです。
     テレビ放送が始まったとき(1940年代)、映画産業は成熟の時代を迎えていましたので、テレビに迎合する気風はこれっぽっちもありませんでした。1970年代までのテレビ産業は、テレビカメラで撮ってそのまま再生するだけが精一杯でビデオテープレコーダが一般的になっていなかったので、映像を記録するにはフィルム像を使いテレビカメラで再撮影せざるを得ない事情がありました。しかし、かと言って映画の24コマ/秒にテレビ方式を変えることはできませんでした。テレビ放送は、家庭に置かれた受像機と放送局の間で無線を使ったスケールのでかい放送規格があったので、おいそれと変更できなかったのです。白黒放送からカラー放送に移行するのでさえ、白黒受像機で支障なくテレビ放送が受信できるように配慮されたくらいだったのです。
     そのような理由で、両者は現在になっても互いに自分たちのフォーマットを譲ることはありません。テレビがデジタル放送を迎えて、走査線の数や画面の縦横比を変えたり、インターレース方式を止める規格は成立しても、再生速度の30フレーム/秒(29.97フレーム/秒)を変えることはありませんでした。
     
     
     
     
     
     
     
    ▲ アナログビデオ信号 - NTSC(National Television Standards Committee) (1998.01)(2007.03.30追記)
     
    電子動画像の規格の一つがNTSCというものです。ビデオ関連の書物を読むとこの言葉が頻繁に出てきます。
    NTSCは、米国が決めたテレビジョン送像・受像についての取り決めです。
    NTSCというテレビ放送規格は、1950年から2000年までの間、テレビ放送の中心的な役割を果たしてきました。
    日本では、1954年のテレビ放送開始以来、今日にいたる約50年間、この規格でテレビ放送が続けられてきました。産業用でもNTSC機器を使って、監視用、計測用に幅広い活躍をしてきました。
    このアナログのテレビ放送規格は、昨今のデジタル画像の興隆に隠れて話題に上らなくなりつつありますが、現在でもなお30フレーム/秒の画像送受信は捨てがたい魅力があります。
    しかし、長く続いたNTSCテレビジョン放送規格も、米国では2009年に放送を終了し、日本では2011年7月24日に終了します。古いテレビ受像機(アナログテレビ受像機)では、2011年以降の放送は受信できないことになります。
    (NTSCは、ここではNational Television Standards Committee の略と記しましたが、文献によっては、National Television System Committee としていているものもあります。どちらが正しいかは今のところわかっていません。ここでは、規格の成り立ちの性質上と、標準化が図られた経緯からStandardsの方が正しいと思いこちらを採用しています。)
     
     長い間君臨してきた、テレビ放送規格のNTSCとはどんな規格なのでしょう。
     
     規格統一にはいつも利権がからみ、当事者としては死活問題となります。しかし、利用者としては一日でも早く規格化してもらいたい問題です。ビデオ記録方式に見られた1980年代前半のビクター・松下陣営のVHS規格とSony陣営のβフォーマットの争いは、ユーザまで巻き込んだ激しい争いでした。テレビ放送規格であるNTSC規格は、米国内ではテレビ放送規格を決める段階でいろいろな利権が絡み、かなりモメたそうですが、日本ではテレビがそれほど一般に普及していなかった時代に、アメリカでほぼ完成した規格を輸入したため、何の疑いも持たず受け入れることができたので大きなトラブルはありませんでした。
     
     
    NTSC規格の骨格
     NTSC規格は、白黒テレビジョンの電波放送が始められた頃からの非常に古い規格(1940年代の規格)です。
    時代が下って、白黒からカラー放送に移行するに伴って、従来の白黒テレビでも放送信号を受像できるようにしなければならないことも大切な規格目標としていました。
    米国のテレビ放送規格の母体は、NTSCという団体です。この団体は、米国でテレビジョン放送の産声が上がったときに、いろいろな開発機関が自分たちの方式を主張しあって収拾がつかなくなることを恐れて、1940年にFCC(Federal Communications Commission)によって設立されました。
    NTSCはテレビジョン放送の標準化団体だったのです。
     NTSCは、1941年に白黒のテレビジョン放送規格を打ち出します。この規格は、RCA社が開発していた走査線441本のテレビ方式と、Philco社が主張していた走査線の多い605本(〜800本)方式の双方の中間を取って、525本と決められました(なぜか、表示速度の30フレーム/秒は双方同じでした)。
    その他に、上の規格も含め、以下の取り決めが行われました。
     
     ■ 画面を構成する縦方向の走査線を525本とする。
     ■ 動画速度を30フレーム/秒とする。
     ■ 525本の走査線を2回に分けて行う
       2インターレース方式とする。
     ■ 画面の縦横比を3:4とする。
     ■ 6MHzの帯域で送信する。
     
     
    アナログ信号の仕組み
     右図にNTSCのアナログ信号の仕組みを示します。
    NTSC信号では、画面が525本の水平線(走査線)で成り立っていて、その走査線に白黒の濃淡像信号が乗せられています。右図は、白黒バーのチャート画面を表していて、その中の1水平線分の電気信号を下の図に示したものです。
    1走査線は、水平同期信号(5usのパルス)で仕切られていて、水平同期信号間分が1水平走査線の映像信号となります。画像が暗い部位は電圧が低く(〜0.3V)、明るい部位は高い電圧(〜1.0V)となります。0Vから0.3Vの間は、タイミング信号に割り当てられて、水平同期信号や垂直同期信号のパルスが織り込まれます。産業用の白黒カメラのビデオ出力信号をオシロスコープでとらえると、概ね右の信号を見ることができます。しかし、テレビ放送でアンテナで受信するテレビ信号(RF = Radio Frequency信号)は、このようになっていません。電波で送る工夫が施されているからです。
     テレビ放送では、この映像信号にFM変調された音声信号を組み込んで、さらに電波で送信するための搬送波が重畳(ちょうじょう)されます。この搬送波は、放送チャンネルよって異なりますが、東京のNHK総合(CH1)では、90〜96MHzの帯域が割り当てられています。この帯域の中の4.2MHzが映像の輝度信号に割り当てられます。さらに、カラー信号では、この白黒信号である輝度信号に色信号が4.5MHz離れた所に重ね合わせられて映像信号ができあがります。
    最終的な放送用NTSC信号はとても複雑な波形となります。
     このように、NTSCでは、無線を使って映像と音声を送信するため、送信帯域に制限があり、送信できる画像の解像力が決まってしまいます。
     
     
     
     
     
    インターレース(interlace、飛び越し走査)
     テレビジョンのインターレース(interlace)方式というのは、一般的にわかりわかりずらいかも知れません。
    1枚の画像を構成するのに1回の走査で描くのではなく2回に分けて描く方式です。
     
        なぜそのようなめんどくさいことをするのでしょう。
     
     1940年代、NTSCが制定された当時の技術では、525本の走査線で60フレーム/秒の画像を作ってこれを無線で飛ばすことは困難でした。非常にたくさんのデータ量になるからです。ならば、525本の走査線で一気に画面を描いて30枚/秒(半分の描画枚数)で送れば良いだろうと思うのですが、こうすると画面のチラツキ = flicker(フリッカ)と言う、とても見づらくて不愉快をもよおす不具合が出てしまいます。1940年当時の表示デバイスは、ブラウン管です。ブラウン管は、真空管の蛍光面に電子が当たって蛍光を発するものです。発光持続時間は数ミリ秒程度でしょうか。映像信号を画面の左上から一筆書きで蛍光面に画像を浮き上がらせて行くとき、最初と最後では、1/30秒の遅れが出てしまいます。この時間差を人の眼は識別してしまい、不愉快な明暗(フリッカ)として認識してしまうのです。動画としては、1秒間に10枚もあれば目の残像の働きによって動きとして認識できますが、点滅が認識されないようにするには30Hzではとてもダメで、60Hzが必要であったということです。
     映画館で上映している映画は、24枚/秒です。テレビよりもはるかに映写速度が遅いのに、フリッカーが論じられないのはなぜか? 
    映画上映は、たしかにフリッカーはあります。私は職業柄それがとても気になります。しかし、テレビ画像よりも深刻な問題として対処してこなかったのは、以下の理由によります。
       ・映写機には円板シャッタが組み込まれていて、1画面に対して2回の
        シャッタリングを行い、48Hzの映像としてスクリーンに投影している。
       ・フィルム画像は、面投影であり、テレビのように走査線によって一本
        一本の線画で画面を構築しないのでフリッカが出にくい。
       ・映画は、当初16コマ/秒でスタートし、音声を入れるトーキーの時代に
        なって、音質の観点から24コマ/秒に上げられた。これ以上速度を
        上げるのは、撮影機・映写機の機械の精度と耐久性、及びフィルム消耗
        の点で得策ではなかった。つまり、面投影である映画では、16コマ/秒
        (32Hz)でもフリッカーは大きな問題とならなかった。
     映画でも、24枚/秒の再生ではフリッカが出ていたのです。だから、映写機に円板シャッタを設けて1画面を2回シャッタリングし、シャッタリング周波数を倍の48Hzに上げてフリッカを抑えていたのです。
     テレビ画面では、30フレーム/秒による再生時に出るフリッカを防ぐ手だてとして、画面を2回に分けて描くというインターレース方式(2フィールド1フレーム、1枚の画像=フレームを2枚の画像=フィールドで作る)を採用しました。60Hzのチラツキであれば、ほぼ問題ないレベルとなります。(だけれども、まだ気になる人がいます。60フレーム/秒のノンインターレースと比べると、チラツキは明らかに認識できると言われています。)
     技術が進歩した昨今では、なにもインターレースにしなくても、60フレーム/秒で撮影して表示できるようになったので、ノンインターレースの表示装置やプログレッシブスキャン(前画素読み出し)のカメラが出回るようになりました。ただ、ノンインターレースは、従来のNTSC規格にはないものなので、放送局規格に縛られない産業用の計測カメラから使われ始めました。デジタル放送になると、旧来の制約から解き放たれますので、ノンインターレースの放送が可能となりました。
     

     

     
     こうして見ると、インターレースは昔の技術ということが言えるでしょう。
    インターネット時代の先駆けの頃(画像が載せられるハイパーターミナルテキストHTMLが、1993年、イリノイ大学で作られた当時)は、それほど速い通信回線が整備されていなかったので、ふんだんに画像をwebに載せることはできませんでした。(1998年に開設した私のホームページも、当時容量が大きすぎると苦情を言ってこられる訪問者が数多くいました。)
    ISDNの通信回線でも、私のホームページを開くのに恐ろしく時間がかかっていました。
    その画像を少しでも速く閲覧者に見てもらえるように、画像はインターレース方式で送っていました。GIFと呼ばれる画像フォーマットにはこの機能があり、1990年代の後半あたりは非常によく使われていました。インターレースによるGIF画像では、まず大まかな画像を先に送って画像の輪郭を閲覧者に提供し、時間を追って画像を鮮明にしていきました。これがまさにインターレース(編み込み)方式なのです。
     
     
    NTSCの画面
     テレビ放送では、無線放送という大きな制約があります。
    電波を使って広い地域にくまなく映像を送る方法は、とても魅力的なものである反面、公共電波を利用する関係上送信周波数が限られています。限られた信号周波数帯域で送信チャンネルを割当てるため、制約をかせられ、きめの細かい映像を送れないなどの問題点を抱えながら、妥協をしいしい今日に至りました(2011年までのアナログ放送の話)。
     NTSC規格によるテレビ放送では、送信周波数が90MHzから6MHz毎のチャンネルとして割り当てられています。東京の場合、90 -96MHz(CH1)がNHK総合に割り当てられ、102 - 108MHz(CH3)がNHK教育に割り当てられています。この6MHzの帯域の中に、走査線525本、1秒間30フレーム、カラー情報、音声情報を入れ込んで送らなければなりません。この足枷があるために、テレビジョンでは、画像の解像力に限界があり、以下の「NTSC規格の水平解像力」で述べるように、水平成分の解像力が447本と決められています。送信帯域の制限を受けないスタジオ内や産業用のビデオシステムでは、放送での解像力よりはるかに品質の良い画質が得られます。
     走査線525本のうちの画面に現れる有効走査線が480本であるので、この値と画面の縦横比から横の解像力を求めると、
     
        480本 x 4/3 = 640  ・・・(Rec -18)
     
    640本という値が出てきます。640x480という値こそ、IBMがパソコンの標準画面として採用したVGA(Video Graphics Array)の画素数だったのです。 実際のテレビの有効走査線(画面に現れる走査線数)は480本ではなく490本と言われています。パソコン画面ではデジタルによる画像処理と画面構成を行っている関係上、8の倍数である640x480画素はわかりがよく処理がしやすかったのだと考えられます。無線送信のNTSCでは、偶数値は鬼門です。画面の走査線を偶数で構成すると、ビート(干渉縞)が現れます。それを除くためにNTSCでは走査線を奇数とし、尚かつ、送信枚数も30フレームの偶数値からすこしずらす工夫(29.97フレーム/秒の怪)をしなければなりませんでした。コンピュータ画面は、そのような制約がなく、逆にメモリ管理の関係上、8の倍数の方が都合が良かったと考えられます。
     
     
    NTSC規格の仲間 - PALとSECAM
     テレビジョン放送規格の国際的な規格としては、NTSCのほかにイギリスなどのヨーロッパ諸国が採用しているPAL(パル = Phase Alternation by Line)規格と、フランスやロシアなど旧社会主義国が採用しているSECAM(セカム = Sequenticel Couleur A Memoirre[フランス語])方式があります。これらは、日本(他に、米国、韓国、フィリピン、台湾、メキシコ、コロンビア、チリ、ペルー)のNTSC方式とは違う送信方式であるため、日本のテレビやビデオを海外に持って行っても何も映らないという問題が生まれました。
     欧州やロシアがNTSCを採用しなかった理由は、NTSCを採用したくなかった、というのが本当のところのようです。標準化がいかに難しいかがわかります。NTSCを嫌った欧州は、撮影・再生速度を変えました。米国は、おそらく撮影・再生速度の根拠を電源周波数においていたはずです。米国の電源は、AC110Vで60Hzでした。この電源周波数に従って再生速度を整えました。ブラウン管など高圧電源が必要な受信器では、トランスを使って高圧を作る場合に商用電源周波数は大事で、この周波数に従って受像機を作るのが安易な方法でありハム雑音を低減することができます。それでNTSCは、60フィールド/秒、30フレーム/秒としたわけです。NTSCを採用している米国、カナダ、日本(西日本)、韓国、フィリピン、タイなどは60Hzの商用電源周波数です。
     欧州の電源周波数は、50Hzです。従って、欧州のテレビジョン規格(PAL)は、50フィールド/秒、25フレーム/秒となりました。動画速度がNTSCに比べて17%も遅くなりました。速度は遅くなりましたが、その分走査線の数を増やして625本としました。PALは画質が良いと言われる所以です。また、動画速度が低いため、PALはチラツキが多いと言われる所以でもあります。
     2000年代に入って、デジタル放送を立ち上げる機運が全世界的に高まりました。この時代になっても、放送規格は足並みを揃えることができません。米国、欧州、日本と3つのグループがそれぞれの規格を主張しあってそのまま規格化になだれ込みました。傍目からみれば、すべて統一したほうがすっきりすると思うのですが、利権がからんだり、過去の遺産(古い受像機を持った人たちへの対応)も絡んだりとうまくは行かないようです。
     
    29.97フレーム/秒の怪
     ビデオカメラなどのカタログを見ていると、録画再生速度の項目に、29.97フレーム/秒という数字が掲載されていることがあります。
      NTSCの規格は30フレーム/秒ではなかったのかしら?
      ま、0.03フレーム/秒は、30フレーム/秒の0.1%だから
      とるにたらないのかな。
      しかし、なんで30フレーム/秒と気持ちいい数字にしてくれないんだろう?
    この数字を見たとき、私はとても不愉快な気持ちになりました。テレビ技術者たちもきっと心地よくこれを決めたのではなかったでしょう。
     NTSC規格が29.97フレーム/秒になった経緯は、白黒放送からカラー放送に変わったときに、白黒の受像機を購入した人でもカラー画像を白黒画像として見えるように、compatibility(両立性)を確保しためでした。30フレーム/秒でカラー画像を作ると案配が悪かったのです。不具合の理由は、白黒画像(輝度情報)に色情報を搬送色信号(「NTSCのカラー情報」参照)として重畳(ちょうじょう)させたとき、わずかではあるけれども、搬送色信号の周波数成分が輝度信号成分に現れて、それが画面として見えてしまうからでした。これは非常に見苦しいものでした。これは、搬送色信号と送信周波数である30フレーム/秒の干渉によってビート(発振によるモアレのような縞画像)が現れてしまうという問題でした。カラー信号を作る色信号は、白黒(輝度)信号に邪魔を与えないように電波で送信できる限界の周波数を選んでいますが、それでもビートとして画面にうっすらと現れてしまいました。
     NTSC規格の根本は、走査線525本を1秒間に30枚で送るというものです。これを守らないと白黒受像機で画像が受けられません。従って、カラー放送を実現するときに、すでに家庭に出回っていた白黒受像機でも受像できるように、できるだけ規格を崩さず、かつ、カラー画像もちゃんと送受信できるように、できるだけ30フレームに近づけて、なおかつ、カラー信号が白黒画像に影響を与えない数値、すなわち、フレーム周波数を29.97フレーム/秒(59.94フィールド/秒)としたのです。
     テレビ画像は、走査線によって画面が構成され(これをラスター画面と言います)、しかも、無線による送信をしなければならない関係上、走査線の数は奇数にしなければなりません。また、周波数も2画面をインターレースで編み合わせているため、信号周波数が整合すると画像にビートが乗りやすくなるので、それを防ぐ工夫をしなければなりません。走査線が525本であるのも、水平周波数が15,734.264Hzであるのも、フレーム速度が29.94フレーム/秒であるのも、すべて画像の干渉(ビート)を除くためでした。
     
     
    アスペクト比4.3
     テレビ画面のアスペクト比(横と縦の画面比)が4:3であるのは、映画画面からの踏襲です。映画がエジソンによって発明された時、画面(コマ)は、35mmフィルム巾に、24mmx18mmという画像サイズを取り入れました。この比率は4:3でした。テレビは、映画の画面比を借用したのです。もっとも、映画はその後、フィルムにサウンドトラックを焼き込むスペースを設けたり、シネスコレンズの登場によってこのアスペクト比を崩し、スクリーン画面を 2.35:1 としました。黒澤明監督作品や、山田洋次監督の作品をテレビで放送するときは(彼らはこの比率をかたくなに守っていたので)、テレビ画面の上下が空いた画像となります。映画画面の比率は、ハイビジョンの16:9よりも横長であるため、ハイビジョン放送を使っても映画画面をフルに映し出すことはできません。
     ちなみに、受像機(テレビ)の大きさを表す35型などの「型」は、インチの別表記であり画面の対角線長を示しています。35型は対角線が35インチなので、縦横は21インチx28インチ(53.5cmx73.2cm)となります。
     
     
    NTSC規格のカラー情報  (2008.10.25追記)(2009.02.03追記)
     NTSC規格(テレビジョンシステム)は、 かなり複雑なシステムです。画像計測の立場に立って、誤解を恐れずに言うならば、テレビシステムは妥協とごまかしの産物でした。しくみと原理をよく理解して計測目的に使わないと、混乱をきたすおそれがあります。
     
    ■ 白黒受像機との互換の問題
     カラーテレビジョンは、白黒テレビジョンが全世界的に広まった後で開発されたため、白黒テレビを持っている利用者でも放送局から送られてくるカラー映像信号を白黒受像機で見えるようにしなければなりませんでした。平たく言えば、カラー映像信号は、カラー放送以前に取り決めた白黒映像信号と基本を同じにして、白黒テレビでも問題なく受信するようにしなければなりませんでした。日本でカラー放送が始まったのは、テレビ放送の始まった1953年(昭和28年)から7年遅れての1960年(昭和35年)です。当時、カラー放送は全放送時間の1割もありませんでした。カラー受像機が100%近くに普及するのは、1970年代終わりの頃だと思います。実に30年近くも白黒受像機は使われていたのです。工業用テレビにおいては、カラーカメラは高価であり、画像のキレも悪いので、監視カメラや、製品生産ラインのチェック用として2000年近くまで白黒カメラと白黒受像機が使われていました。2009年時点でも、FA関連のカメラでは白黒カメラがよく使われています。
     このような理由から、NTSC規格のカラー信号を決める時に、白黒の映像信号を基本にして、白黒受像機でも弊害を受けないように対策が立てられました。カラー情報は、白黒輝度信号の中の比較的広い映像部分(この部分は、映像周波数としては低い周波数になる)に与えることにして、色の情報を伝える色差信号を500KHzまでに限定しました。この色差信号を3.58MHzで副搬送波として映像信号に重畳させています。500KHzの信号は解像力に直すと63TV本になります。これ以上の細かい部分については、人間が色を感知せずに光の強さだけを認めるという性質をうまく使い、輝度情報だけを送っています。従って、通常のCCDカメラを用いてカラー画像処理を行う場合に、NTSC信号では細かい部分のカラー情報を持ち合わせないため色情報を取り出せません。カラー画像処理を行うためには、RGB方式のビデオカメラとRGB 3系統の画像メモリを組み合わせたものが理想となります。 もちろん、VTRやDVなどの録画装置に保存してしまっては、細かいカラー情報は消されてしまいます。
     

     

     
     
     
    ■ カラー映像信号の作り方 
     カラー映像信号を、白黒受像機で受けても問題なく映像を受信できるようにするために、カラー映像信号は「アナログ信号の仕組み」で説明した同じ方式にしてあります。白黒映像信号をもとに、白黒受像機の受信に不具合が起きないようにカラー情報を乗せています。
     右の映像信号(1水平ライン分の信号)が、NTSCのカラー信号です。各色の輝度信号に髭のような細かい信号が乗っています。これは、白黒濃淡を表す輝度信号(Ey)に、3.58MHzの周波数を持った色信号を重ね合わせているのです。白黒受像機では、3.58MHzの細かい信号は基本的には認識されずに、その下のベースにある輝度信号だけを取り出して白黒画像を作っています。現実には、色信号は完全には除去されずに、細かな輝度信号となって干渉縞を発生させています。その干渉縞は、455TV本に相当します。この干渉縞を抑えるために、画像の1フレーム毎に干渉縞をずらして2フレームで見た目の細かな縞を打ち消しています。細かく見るとフィールド毎のラインに縞が見えますが、ライン上に現れる縞がフレーム毎が半波長だけずれるので、画面全体を見れば目立たなくなるのです。
     カラー信号では、まず、水平同期信号(走査線が左から右に走るというスタート信号)の直ぐ後に続くバックポーチ部に、カラーバースト信号を乗せています。これは、「この映像信号がカラー信号ですよ」、という合図です。カラーバースト信号は、3.58MHzの周波数で作ることが厳格に決められています。このカラーバースト信号は、8〜12のパルス数で構成されています。このカラーバースト信号は、受像機側では、カラー情報を構築する上で大切な働きをします。この信号で、カラー信号の周波数の校正と位相の補正をします。輝度信号に重畳された(ちょうじょう = 重ね合わさった)カラー信号は、バースト信号との位相のズレ(θ)で色を決めるので大切なのです。
     輝度信号に重畳された色信号は、振幅(電圧幅、L)成分とバースト信号からの位相のズレ(θ)情報を持っていて、この二つの情報と輝度値(Ey)を使って、最終的に色情報(EB、EG、ER)を算出します。その前段階として、二つの色差信号(EB - Ey、ER - Ey)を作ります。色差信号を作るのは、画像の大きな部位に対してだけです。細かい部位に対しては色信号がないので色をつけることはできず、輝度信号情報だけの映像(つまり、白黒映像)となります。
     
    ■ カラーバースト信号の弊害
     カラーバースト信号と色信号は、ともに3.58MHzの周波数で作られています。この周波数は、受像機の回路側でカラー信号を抽出するのに大切な働きをします。この信号周波数をもとにして、映像信号の色情報を読み出しています。3.58MHzの周波数を持つ色信号は、本来は、最終的な映像信号が作られる時に除去されるべきものですが、映像信号として残ってしまいます。3.58MHzという信号は、525本の走査線、29.97フレーム/秒の全画面構成では、
     
    2 x [ 1/(525 本/フレーム x 29.97 フレーム/秒 )]/( 1/3.58E6 Hz ) = 455.06 TV本    ・・・(Rec -19)
     
    455TV本の縞としてうっすらと画面に現れます。しかし、これはしかたのないことでした。何度も言いますが、NTSC映像信号は電波放送を前提としていて、電波に乗せて映像信号を送るために送信帯域の制限があります。4.5MHzの送信帯域(実際の映像信号の帯域は4.2MHz)に映像信号を押し込めなくてはならないため、30フレーム/秒、525本走査線は譲れない条件となります。この制約の中で、カラー信号を入れなくてはなりません。カラー信号を乗せる基本周波数(バースト信号周波数 = 3.58MHz)の選定も、この制約の中から最適な条件として求められました。その条件出しは、以下の通りです。つまり、
     
    バースト信号周波数(fs) = [水平走査周波数(fh)/2] x 奇数番号(N)      ・・・(Rec -20)
     
    とすれば、画面への弊害を最小限に抑えることがわかりました。バースト信号(fs)は、映像搬送波からできるだけ離して設定すれば効果が上げられる反面、周波数帯域の制限があるためその範囲内に収まるようにNを設定しなければなりません。規格では、N = 455に設定されています。これは、455が奇数であることと、素数分解したときに5x7x13にできて電子回路が組みやすいという利点から、N = 455が求まりました。
     水平走査周波数(fh)は、テレビ送信信号の帯域4.5MHzを走査線の数とフレームレートの積で割った値として求められますが、バースト信号周波数(fs)を考慮に入れて整数分の一にしなければなりません。NTSCの当初の規格である30フレーム/秒、525本の周波数(15,750Hz)を元にして、4.5MHzの整数分の一になるような厳密な水平走査周波数を考えると、
     
    4.5E6 Hz /15,750 Hz = 285.714     ・・・(Rec -21)
     
    となるので、286が最も妥当な分周値となります。これを、再度、計算して水平走査周波数(fh)を割り出すと、
     
    4.5E6 Hz /286 = 15,734.266 Hz     ・・・(Rec -22)
    となります。この周波数を、バースト信号周波数(fs)を求める式に入れて、
     
    15,734.266 Hz /2 x 455 = 3,579,545.5 Hz     ・・・(Rec -23)
     
    が得られ、この値(3.58 MHz)が、バースト信号周波数(fs)の根拠となりました。
    また、水平走査周波数(fh)から、最適なフレーム周波数(撮影速度)を求めると、
     
    15,734.266 Hz/ 525 = 29.970030 Hz     ・・・(Rec -24)
    となり、カラーNTSC信号の厳密なフレーム速度(29.97 フレーム/秒)が求まり、これがNTSCでの正式な撮影・再生速度となりました。
     白黒テレビ放送が主流であった初期の受像機を使ってカラー映像信号を受信しても、30.0と29.97は、0.1%の許容差であり、システムが許容している+/-0.5%以内に十分に入っているので問題はありません。
     このように、NTSCでは、送信上のいろいろな制約の中で成立してきた映像規格であることが理解できます。この規格は、本来、計測を目的として作られたものではなく、動画を電波に乗せて配信するという大前提と制約があったので、これを計測用として使うには、十分に気をつけて使う必要があります。
     
     
    NTSC規格の水平解像力
     NTSC方式は、日本と米国、カナダ、韓国、台湾、メキシコ等で採用されているテレビジョン方式で、画像の構成が一秒間に30画面、一画面525本の走査線と決められています。送信周波数もAM変調した映像信号とFM変調した音声信号を重畳(ちょうじょう)させ90MHzから6MHzごとにチャンネルを割りふっています。従って、チャンネル1(関東地区はNHK)は、90 - 96MHz、チャンネル2は96 - 102MHzという具合になります。6MHzの周波数帯域の中で、実際に映像信号として使える周波数は4.2MHz です。NTSC規格では、29.97フレーム/秒の間に525本の走査線が走るので、走査線1本は、15,734.25Hz(63.5 us)で走査しています。走査線は、画面の左から右に走り(走査し)、右端に達するとある時間を取って左端に帰らなければならないので(帰線期間)、有効な1走査線時間は、52.7usになります。52.7usは、NTSCで決められた水平走査線の走査時間の83%の時間分で、有効画面の走査時間です。この時間で、映像信号は最大4.2 MHzの周波数を取りえるので、おのずと水平方向の解像力が決まります。
    52.7 us x 4.2 MHz x 2 = 442.7 TV本  ・・・(Rec -25)
    この式で、最後に2を掛けたのは、1Hzは映像でいうと白と黒の二つを表すことができるため、そして、テレビの解像力は白黒ペアで2本と数えるため2倍にしたものです。 この式から、放送局から送られてくる画像は、最も条件が良くて443本であることがわかります。通常は、いろいろな画質低下の要因があるため、230 - 240 本の解像力が満足できれば妥協できる映像といえます。家庭用のテレビは、その程度の解像力でした。
     放送局用に使われているテレビカメラは、どのくらいの解像力を持つものを使っているのでしょうか。
    画面の縦情報を決定する走査線は525本と決まっているので、これは固定としても、水平解像力はどのくらいあるのかというと、CCD素子を使ったベータカムは、494x768画素(この素子を3板で使用)のものを使っています。このことから、放送局用のCCDカメラは、送信限界の解像度の2倍弱のカメラを使っていることがわかります。
     
    S端子。
    輝度信号と色信号を別々にしたビデオ信号端子。
    S-VHSビデオの解像力
     S-VHS(えす・ぶいえいちえす、Super-VHS)ビデオは、記録信号帯域を7MHzまで高め解像力アップを狙ったビデオ機器です。放送用としてではなく、アマチュアが個人でカメラで撮影し録画する目的のため、NTSC規格にとらわれることなく開発されました(ただし、NTSC規格にのっとった関連機器との互換性を取ったのはもちろんです)。開発したのは、VHS方式のビデオテープデッキを開発した日本ビクター社で、1987年のことです。従来の方式が、映像信号にかかわる輝度信号と色差信号を重畳して1本の信号線で処理する方式としていたのに対し、S-VHS方式は、映像輝度信号と色差信号を別々に分けて記録再生するために、混信が無くなり解像力を上げることができました。S-VHSの信号帯域から解像力を割り出すと最高890TV本になります。解像力が900本近くなると、かなりきめの細かい画像になります。しかし、記録、再生などトータル的に見るとS-VHSの解像力は400本前後となります。それでも、この数値は従来のVHSの230本に比べると格段の画質向上を達成していました。
     接続するコネクタは、右の形状をしていて、S端子(Separate端子)と呼ばれていました。
     この規格は、VHSがデジタル機器の台頭に伴って、その役割を終えた2008.1月に民生機器の販売が終了したために21年の歴史に終止符が打たれました。
     
     
    ビデオ信号のダイナミックレンジ
     NTSCに準拠したアナログビデオ信号の輝度レベル(明るさ検知の範囲)は、前にも述べたように0.3V〜1.0Vです。この映像輝度信号をどこまで分解して濃度情報を得ることができるでしょうか。世に出回っているディジタルメモリは、8ビット(28 = 256)256階調と規定して製作されています。黒レベルの0.3Vから白レベルの1.0Vまでの0.7Vを256段階にわけると1階調当り2.7mVになります。これほど純粋に、カメラもVTRもモニタも信号を大事に扱えるかどうかは疑問ですが、一般にビデオカメラの階調は 1:100(7ビット)と言われています。これを被写体に照らし合わせて考えれば、10,000ルクス程度の屋外では 1,000 〜 100,000 ルクス程度の明るさを映像に収めることができます。従って、1,000ルクス以下の明るさでは真っ暗になり、100,000ルクス以上の被写体は真っ白になります。
     放送局用や理化学分野で使用されるカメラで、これ以上のダイナミックレンジを持つカメラは無いのでしょうか。CCDカメラを例にとって考えてみましょう。CCDカメラは、シリコンの光反応で光学像を電気変換することは前に述べました。シリコンは光に良く反応し、ダイナミックレンジはシリコンフォトダイオードで 1 : 100,000 であることも述べました。同じフォトダイオードを使っているのになぜ1,000倍も違うのでしょう。答は、検出信号電圧と S/N 比(Signal to Noise ratio)にあります。素子自体は本来、広いダイナミックレンジを持っているのに、ノイズ成分が多くて、短時間に取り出す信号用として使うには取り出せる領域が限られてしまっているのです。分光分析用に使われているCCDカメラ(時にはCCD面を液体窒素やペルチェ電子冷却によって長時間露光と微弱光検出を可能にしたものもある)では、16ビット(1:65,000)のダイナミックレンジを持つものも市販されています。これらのカメラは、NTSC 規格から解放されているために出力電圧を高くとることができ、また、信号取り出し時間もゆっくりとれるため 、S/N 比が向上し、分解能を高くとることができます。従って、この種のカメラでは1秒間に30枚という画像形成は不可能です。
     
     
    デジタルビデオ(DV)信号  (2006.11.05)(2008.05.04追記)
     アナログ映像信号(NTSC)に代わって、1990年代後半からデジタル映像信号が普及してきました。DV信号は、家庭用8mmビデオコーダがデジタルに移行するのに伴って規格化された映像信号です。DV信号の規格内容を見ると、アナログ信号(NTSC信号)を踏襲していることがよくわかります。
     DVフォーマットは、1995年にビデオ機器関連55社が集まって「HDデジタルVCR協議会」を組織し、この組織が作り上げたデジタルビデオ規格です。
    この規格は、放送局用の規格ではありません。アマチュア向け(家庭向け)のビデオカムコーダのデジタル規格です。放送局では、この規格とは別のD1〜D6というデジタル信号が1982年から始まっています。また、公共電波を使って、放送局から送信されるデジタル放送のデジタル信号もこれらとは異なります(「デジタル放送」参照)。動画像のデジタル信号処理は、録画から始まったということができるでしょう。
     DVフォーマットのおおまかな規格を、以下に述べます。
     
    【DV信号規格】
    ・ 画像: 720x480画素(インターレース)
    ・ 1秒間に30コマ(正確には29.97コマ)の動画を構成する。
    ・ 画像は、DVフォーマット(Motion-JPEG)。
      MPEG録画ではなく、一枚一枚の静止画を作って録画している。
      したがってフレーム毎の編集が可能。
    ・ 画像圧縮率: 1/5
    ・ サンプリング周波数:
       13.5MHz(輝度信号)、
       3.375MHz(色差信号、輝度信号の1/4サンプリング)
    ・ 色差サンプリング: 4:1:1
    ・ 符号化ビット数: 約25Mbps
    ・ オーディオ: 非圧縮PCM
    ・ オーディオ量子化ビット数: 16bit/48kHz(2ch)、12bit/32kHz(4ch)
    ・ DVテープ: 1/4インチ(6.35mm)、メタル蒸着(ME)テープ
    ・ DVテープトラック幅: 10um(業務用DVテープは、18um)
    ・ DVテープ速度: 約18.812mm/秒(SP)、約12.555mm/秒(LP)
    ・ 記録時間: 80分(LPモードで120分)
    ・ 録画装置からのデジタル転送は、IEEE1394(Fire Wire)を使う。
     
     
     この規格を見ると、DV信号は、NTSCアナログ規格のデジタル版という匂いを強く感じます。その理由は、動画の構成が30フレーム/秒であることと、インターレースであることです。縦の画素数が480画素であり、これはNTSCの縦の有効走査線490本のデジタル版とも言えるものです。また、水平解像力をNTSCでは最高のレベルに入る720本としたことからも、その近似性を見て取ることができます。 水平解像力720本については、注意が必要です。すなわち、DV信号映像をコンピュータに表示させてピクセルbyピクセルで表示させると、横長に表示されます。コンピュータの世界では、1画素は縦横同じ比率(正方格子)が前提ですが、テレビ画像では縦長の画素構造で横に緻密な画像となっていて、垂直解像度に限界がある分、それで見た目の解像度を向上させています。しかし、ハイビジョンのデジタル放送になると、16:9の画面比を正方形の画素ピッチ(正方画素)で表示する規格となりました。放送業界では、NTSCのアナログ映像信号、DVのデジタル信号、アナログのハイビジョン放送は正方画素表示ではないことを注意しておくべきでしょう。
     また、DV規格は、コンピュータ動画から出発した、AVIやQuicktimeの動画フォーマットとは違います。AVIなどは、再生速度の制約もなければ画素数の制約もありませんでした。
     
     
    ハイビジョンデジタルビデオ(HDV)信号  (2008.12.15記)
    ソニーが2008年に発売した、
    家庭用向けハイビジョンカメラ(HDR-HC9)。
     ・撮像素子は、単板CMOS(2,848x1,602)。
     ・記録媒体は、miniDVカセット(30分録画〜85分)。
    価格は、120,000円〜150,000円。
     先に述べたDV規格ができたとき、来るべきハイビジョンの到来を予測して、DVにもハイビジョンを取り込む対応がなされていました。
     HDV(High - definition Video)は、2003年9月にキャノン、シャープ、ソニー、日本ビクターの4社によって規格化されました。HDVに対して、先に述べたNTSCのデジタル化規格をSDVと呼んでいます。HDVは、記録するビデオテープや編集器など、先に開発されたDV機器と共有することを大きな前提としていました。
     HDVでは、走査線を1080本のインターレース(HDV 1080i)と720本のプログレッシブ走査(HDV 720p)の2種類が設定できるようになっています。インターレースは、先にも述べているように、テレビ放送ができた当時からある画像表示方式で、1画面(フレーム)を2つの画面(フィールド)で織りなす方法です。プログレッシブ走査は、1画面(フレーム)を1回の走査で描く方法です。
     従来のデジタルビデオテープに、ハイビジョン画像を録画していく関係上、録画はMPEG-2が採用されています。この方式をとらない限り、高画質な画像を記録することは不可能でした。それほどMPEG-2は革命的なデジタル映像フォーマットだと言えるでしょう。HDVの画面は、16:9のハイビジョンテレビと同じアスペクトになっています。
    従って、HDV 1080iでは、基本的に、1440x1080画素で画面が構成され、59.94フィールド/秒を25Mbpsのビデオ圧縮で録画されます。HDV 720pでは、1280x720画素で30フレーム/秒のプログレッシブ映像を19MbpsでMPEG-2圧縮されます。音声は、いずれの方式においても、サンプリング周波数48kHz、左右16ビット、384kbpsのビットレートでMPEG-1 Audio Layer-2のデジタル記録がなされます。
     右のカメラは、HDV規格の家庭用ビデオカメラです。手のひらサイズの大きさをDVの時代から継承して、ハイビジョン録画が可能となっています。テープ方式の録画の強みを生かして、最大85分の記録ができます。ちなみに、同様のカメラで120GBのHDD(ハードディスクドライブ)を搭載したモデルもあり、これは最大48時間の録画が可能です。
     
     
    ハイスピードビデオの記録周波数
     NTSC規格は、記録周波数帯域が4.2MHzに制約され解像力もカラー情報も全てこの制約の中で行われていることがわかりました。ハイスピードビデオはどのくらいの周波数帯域で記録しているのでしょう。
    単純な計算を試みると次のようになります。
    1,000 画面 / 秒 x 525 走査線 / 画面 x 300 白黒本/走査線 x 1/2
       = 78.8 MHz ・・・(Rec -26)
    上の式は、1,000コマ/秒のハイスピードビデオカメラで約79MHzの記録帯域で記録していることを示しています。79MHzの記録周波数帯域のVTRやカメラ設計にはかなり高度な技術を必要とします。この帯域での記録では磁気記録方式では記録周波数ギリギリまでテープ走行速度を上げていますし、カメラの走査速度も非常に高速になっています。これらの技術が完成したのは、高速・高集積 IC素子とアナログ素子の出現があったことは言うまでもありません。
     
     
     
     
    ↑にメニューバーが現れない場合、
    クリックして下さい。
      
     
     
     
     
     
    ▲ デジタル映像信号 (Digital Video Signal) (2008.08.19記)(2008.08.25追記) 
     映像のデジタル信号化は、固体撮像素子とコンピュータの発展により1990年代後半から急速な普及を見てきました。2011年以降のテレビ放送は、すべてデジタルに切り替わります。1954年に開始された日本のテレビ放送も、57年の年月を経てデジタル放送時代を迎えます。家庭で使われている写真も、2009年ではほとんどすべてデジタルカメラに置き換わりました。
     デジタル画像の基本は、画像を画素(ピクセル)という単位の升に区切り、そこに濃度を与えて数値化(デジタル化)したものです。画素に番地がふられて濃度情報が記録される、きわめてわかりの良い考え方です。映像の記録はすべて画素単位で数値保存されます。これがデジタル画像です。このデジタル映像を1秒間に30枚、しかも720画素x480画素で表示するとなるとどうでしょう。テープレコーダにデジタル記録する回路技術もさることながら、この情報を電波で送信する技術もそれだけの周波数帯域を持っていなければなりません。
     
      30 画面 / 秒 x 720 画素 / 横画面 x 480 画素/縦画面 x 24 ビット/画素 = 248.8 Mbit/s ・・・(Rec -27)
     
    この値は、1980年代後半普及していたデジタル電話回線(RS232C)の26,000倍もの速い通信速度で、インターネットの普及した2006年頃のADSL方式の12Mbit/sよりも20倍も速い値です。光通信でもこの帯域を確保していません。インターネットでは、画像を圧縮するという技術で高画質を保ちながら高速の動画像を送ることができます。そうした技術がない時代にあっては、NTSCアナログ信号ですらこのような膨大なデータ量になってしまうため、アナログ信号のまま送らざるを得なかった事情がありました。デジタル技術では、圧縮とか周波数の増強などの技術的ブレークスルーが要所要所でありました。 
     
     
    最初のデジタル画像  (2008.08.19記)(2009.01.11追記) 
     最初のデジタル画像が使われた事例を紹介したいと思います。
    デジタル画像とその処理を最初に開発したのは、米国JPLです。1965年のことでした。
    JPLは、正式名称を Jet Propulsion Labs (= ジェットプロパルジョンラボラトリーズ)と言い、NASAの研究組織として惑星の探査研究を受け持っていました。
    米国カルフォルニア州のパサデナにあります。
    CMOS-APS 固体撮像素子の親であるFossum氏も、この研究所の研究員でした。
     
    ■ NASAプロジェクト
     NASAでは、1962年11月に火星に探査船を送るプロジェクトを立ち上げました。
    当時、全米では、火星に生物が存在すると深く信じられていて、大統領はじめ全米が火星の様子を探るこのプロジェクトに大きな関心を寄せていました。
     マリナー4号は、1964年11月に打ち上げられて、翌年1965年7月に火星軌道に入り、地上高6,000kmから地表面を200x200画素の解像力で撮影を行い、合計22枚の画像を地球に送ってきました。この画像は火星表面の1%にあたるもので、200x200画素の画像は、1画素あたり1kmに相当する200kmx200km範囲の画像でしたが、地球から撮影して得る画像よりも150倍も良い分解能を持っていたそうです。
     このプロジェクトの技術的チャレンジは、以下の二つでした。
     
       (1)火星地表を鮮明な画像を撮影すること。
       (2)得られた画像をデジタル信号に変換して、遠く離れた地球に送り届けること。
     
    ■ 遠隔通信手法 - PLL (Phased Locked Loop)
     遠く離れた宇宙空間で画像データを送受信する通信技術は、これに先立つ1962年、金星に送り込んだマリナー2号のデータ通信で採用されて実証された「Phased Locked Loop = PLL」という通信方式で目途が立っていました。PLLは、宇宙通信史上画期的な技術発明でした。これは、送り手と受け手の両方が原子時計のような非常に正確な時計を持って同期をとり、同期に合わせて「0」と「1」のデータ情報を送るものでした。二つの信号しか送らない方法こそが、まさにデジタル通信であったのです。この技術を彼らは画像通信に応用しました。
     このプロジェクトを遂行するには、デジタル通信システムが絶対必要でした。
    普通のアナログ・ビデオシステムは、すでに探査機「レンジャー」に乗って月に飛び、あるいは「タイロス」衛星に乗って地球軌道を回っていました。普通に考えれば、アナログ方式を採用すれば問題ないと考えるでしょう。しかし、今回は、地球周回や月などと違って桁外れの距離からの通信です。テクノロジーのスケールをそのまま相似的に当てはめるわけにはいかなかったのです。
    デジタル通信こそが、画像データの超遠距離伝送を高い忠実度で実現してくれる、唯一のシステムであると考えざるを得なかったのです。
     
    ■ テレビカメラ
     火星探査衛星マリナー4号(Mariner 4)に搭載されたカメラは、フィルムカメラではなく、現像工程のいらないテレビカメラでした。カメラは、当時のテレビ局が最新のスタジオカメラ用として採用していた「ビジコン管」(Vidicon tube、撮像管、真空管)を採用しました。もちろん、白黒テレビでした。当時は、CCDなどの固体撮像素子はありませんでした。テレビ放送は、NTSC呼ばれる(アメリカと日本などが採用したテレビ放送規格。2011年までアナログ放送として使われる)とアナログ送信技術が規格化されていて、電子映像装置はすべてNTSC規格に準拠していました。従って、ビジコン管は走査線525本の性能を持っていました。しかし、宇宙通信ではアナログ通信が行えないため、データの通信が確実におこなえるデジタル信号に置き換えなければなりません。当時のデジタル通信では、525本の情報は多すぎて送信することができなかったので、ビジコン管の走査線を変更して200本と低くしました。
     
    ■ A/D変換(Analog to Digital transfer)
     テレビカメラ(ビジコン管)で作られる画像は、電圧の強弱になったアナログ電気信号であるため、マリナー4号ではこのアナログ信号をA/D変換器(Analog Digital Converter)を使ってデジタル信号に変換しました。A/D変換器は、トランジスタとコンデンサで組み合わせた電子回路であり、弁当箱程度の大きさがありました。この装置により、カメラ画像を200x200画素、6ビット(64階調)濃度に変換しました。ビジコンカメラがとらえた画像は、240kビット(30kB)のデジタル画像だったことになります。
     このデジタル画像を1枚作るのに2.5秒かかりました。A/D変換されたデジタル信号は、一旦、4トラック・デジタル・テープレコーダに記録されました。このテープレコーダの性能が、どの程度のものであったかは、資料がないのでわかりませんが、110kpsの記録は、4トラックで25umギャップの磁気ヘッドを使って、76.2cm/s(30 inch/s)のテープスピードでなんとか出せる性能です。こうしたことの意味するところは、当時、たったこれだけのデータ情報を記録する電子メモリ(ICメモリ)がなかったことです。それ以上に興味あることは、200x200画素、それも64階調とお世辞にも高画質といえないデジタル画像を、2.5秒もかかって変換したという当時のデジタル技術のレベルです。つまり、デジタル画像は、まだ産声を上げたばかりだったのです。当時は、デジタル技術をささえる半導体製造技術が成熟していなかったのです。デジタル・テープレコーダ(おそらくアナログテープレコーダの改造)が使われたのは、ビジコン管から得られる画像の撮像スピード(110Kbps)に対応できる通信速度が確保できなかった(当時のデジタル通信は8.33bpsが限界であった)ことと、火星の裏側に回り込んだ際に地球にデータが送信できない問題があり、データは一旦テープで保存して、後でゆっくり送信する必要があったためでした。宇宙通信データも、当時は1秒間に8ビットを送るのが精いっぱいでした。200x200画素のデータを地球に送るのに8時間もかかったのです。テープレコーダも、記録と再生では、1,320倍ものスピード差がありました。磁気テープ装置は、録画はハイスピードで行って、再生は恐ろしく遅いスピードでテープを送っていたことになります。
     
     
    VGA規格(Video Graphics Array) (2009.02.03追記)
     VGA(Video Graphics Array)は、パソコン画面のもっとも基本的な画面構成で、米国IBM社が1987年に規格したデジタル画面です。これは、テレビ放送の規格ではありません。パーソナルコンピュータの規格です。VGAは、パーソナルコンピュータの草分けであるIBM-PC(PS/2)に最初に採用されて、クローンメーカによる互換機もこれに追随したため標準規格となりました。
    IBMがこの規格を作ったことにより、パソコン表示画像の作り込みが楽になり、写真や図表などがパソコン画面にどんどん取り入れられるようになりました。
    画像ボードメーカも、この規格に合うようにいろいろなインタフェースボードを作って行きました。このことは、1987年以前のコンピュータ画面が、コンピュータを作るメーカでまちまちであったことを示しています。同時に、コンピュータ画面は、文字だけ表示されれば(ターミナルモードで)良しとされていた時代であったことを伺わせます。
     VGAの規格は、NTSCアナログ規格の踏襲と言えるべきものです。
    VGAに採用された画素数は、NTSCの解像力をお手本にして、そのままデジタルに置き換えました。そのほうが既存のテレビモニタが使えるので便利だったのです。ただ、色表示は無限表示(RGB各8ビット、24ビット)とするには、当時のパソコンのパワーが足りなかったので、16色(4ビット)からスタートし、256色(8ビット)まで取り決められました。これは、カラー写真を表示するには不満の残る設定でした。逆に言うと、1990年代までは、パソコンを使って写真を見るなどという考えが無かったことを伺わせるものでした。当時は、文字を表示するのに精一杯で、文字に色がついたことに感激していた時代だったのです。MS-DOSによるパソコンができた当時は、日本語では、漢字1文字が16x16画素のビット表示として割り当てられ、これを全角と呼んでいました。従って、VGA画面では、全角で40文字x25行の文字が表示できました。当時のパソコンは、こうした文字をパソコンに打って、これを読んでコンピュータと対話するという文字だけの世界に終始していました。
     VGAは、当初、コンピュータ内部のマザーボードにモニタの画像を構築する回路を搭載していましたが、マザーボードから切り離して、ISAバススロットを介した拡張ボードとして供給されるようになります。VGAボードがマザーボードと切り離して供給されるようになって、目的に応じた画像ボードを使うことが出来るようになり、高画素(SVGA、XGA)のモニタも使用できるようになりました。以降、コンピュータ画像の高画素化はご存じの通りです。現在のパソコンのもっともタフな仕事は、高画素になった画面表示にあることも、また事実です。
     以下にVGAの規格を示します。
     
    【VGA規格】(1987年)
    ・ 画素数: 640画素x480画素が代表的
    ・ 色: 16色もしくは256色
    ・ RAM領域: 256KB ビデオRAM
    ・ マスタークロック: 25.175MHzもしくは28.3MHz
    ・ 最大水平画面表示: 720画素
    ・ 最大垂直画面表示: 480画素
    ・ 画像表示周波数: 最大70Hz
    ・ 映像出力信号: アナログ0.7V p-p・ ビデオ信号終端: 75Ω
     
     
    【VGA規格の派生】
    ・ VGA: 640 x 480 画素
    ・ WVGA: 800 x 480 画素
    ・ SVGA: 800 x 600 画素
    ・ WSVGA: 1024 x 600 画素
    ・ XGA: 1024 x 768 画素
    ・ SXGA: 1280 x 1024 画素
    ・ SXGA+: 1400 x 1050 画素
    ・ WXGA: 1280 x 800 画素
    ・ WSXGA+: 1680 x 1050 画素
    ・ SXGA+: 1400 x 1050 画素
    ・ UGA: 1600 x 1200 画素
    ・ QXGA: 2048 x 1539 画素
     
     
     
    デジタル放送(Digital Broadcasting) (2008.08.25記)(2009.05.06追記)
     
     計測分野で使われる動画像とは別の世界に位置しているデジタル放送は、日本では2011年に全面的に置き換わります。デジタル放送の流れは、26年も前(1982年)から始まっていました。デジタル放送の最初の流れは、録画装置から始まりました。テレビカメラは、最初の間、アナログの放送局カメラが使われました。デジタルカメラになったのは、デジタル放送を初めてからのことです。カメラのデジタル化は最後の方で実行されたことになります。つまり、放送の世界のデジタル化は、カメラで作り出したNTSCビデオ信号をデジタル処理してデジタルテープレコーダに保存することから始められました。デジタルで保存されたビデオ信号は、再生時に再度アナログのNTSC信号に変換されて、編集装置や送信部門に送られて各家庭に配信されていました。
     デジタル放送のさきがけのデジタルVTRが、どのように規格化されたのかを見てみましょう。
     
    ■ デジタルVTR(Digital Video Tape Recorder)
     放送局で扱われる映像のデジタル処理は、1982年から始まります。
    デジタル処理は、録画装置(VTR = Video Tape Recorder)から始まりました。つまり、カメラは当時、まだアナログカメラを使い続けていました。
    デジタルVTRが開発された1982年は、IBM社によるパソコンが登場した時期です。また、オーディオのCDが発売された時代でもあります。
    パソコンでは、とてもデジタル動画など出来なかった時代に、テレビ放送はデジタルに向けて動いていたことになります。
    デジタル化への道は、信号周波数との戦いだったと想像します。
     
    ■ D1-VTR
     最初のデジタル録画装置は、D1規格と呼ばれるもので、1982年に制定されて1986年からD1-VTRによる編集や保存が開始されました。
    もちろん、放送にはこれを再びアナログに変換していました。保存だけデジタル処理になったのです。
     1980年代は、家庭用のVHSタイプやベータ方式のVTRが急速に成長していた時代です。磁気テープの詳細については、項を改めて紹介しています。
    これらの技術が発展して、放送局に使われるVTRがデジタル化されていきました。
    デジタルVTR(D1-VTR)に使われたテープは、3/4インチ巾(19mm)で、U-matic規格のビデオテープを改造したものでした。これを使って、NTSC(アナログ)ビデオ信号成分を余すところなくデジタル信号に置き換えたのです。
     放送用のデジタル信号は、静止画像と違って1秒間に30枚の映像が連綿と続く信号です。
    これを、デジタル処理して連続して録画しなければなりません。
    待ったなしです。
    したがって、放送用のデジタル信号はアナログ(NTSC)信号をできるだけ簡単にデジタルに変換する手法、つまり、コンポーネントデジタル信号(YCbCr、UVR 4:2:2信号)が採用されました。
     
    ■ D1-VTRとD2-VTR
    放送局用デジタルVTRの系譜
     
    規 格
    D1 - VTR
    D2 - VTR
    D3 - VTR
    D4 - VTR
    D5 - VTR
    D6 - VTR
    開発年
    1986
    1988
    1992
    欠 番
    1993
    1995
    記録方式
    4:2:2
    コンポーネント方式
    コンポジット
    デジタル方式
     
    4:2:2
    コンポーネント方式/
    10ビットコンポジットデジタル方式
    4:2:2
    コンポーネント方式
    デジタル/アナログ
    デジタル
     
    デジタル
    使用テープ
    3/4インチ(19mm)磁気テープ
    1/2インチ(12.7mm)
    磁気テープ
      
    1/2インチ(12.7mm)
    磁気テープ
    3/4インチ(19mm)
    メタル磁気テープ
    主開発
    ソニー/
    AMPEX
    NHK
    /松下
     
    NHK/松下
    東芝/独BTS
    特徴
    最初のデジタル録画VTR
    旧来機との互換を重視したデジタル記録
    1/2インチカセット使用
     
    16:9ワイドビジョン
    HD対応
    フルハイビジョン対応
    コメント
    アナログ式との互換が難しく、あまり普及しなかった。
    旧来機と互換があり普及。
    画質はよくない。
    バルセロナオリンピックに採用
     
    ハイビジョン対応 
    高価
     
     
     
     
     
     
     
     実を言うと、D1-VTRはあまり普及を見ませんでした。
    1988年に作られた D2-VTR の方が大きな普及を見て、1990年代の主力となっていきます。
    D1-VTR と D2-VTR の違いは、デジタル信号のエンコード方法にありました。
    D2-VTR は、NTSC信号のアナログ信号をバサバサとそのままサンプリングしてデジタル化しました。
    D1-VTRでは、輝度信号と色差信号をそれぞれ抽出(コンポーネント化)し、デジタル化しています。方や D2-VTR はそういうことをせずにアナログ信号をそのまま8ビット濃度で処理しました。 D2-VTR の方がより簡単にデジタル変換する方式だったのです。
    D1-VTR の登場は、時代が早すぎたようです。当時の放送局で使われている設備は、アナログ装置が圧倒的でしたから 、D1-VTR を他の装置と組み合わせて使うときに、変換などの処理に手間がかかり相性があまりよくなかったようです。 D1-VTRを開発したソニーは、そのことに気づいて、すぐさまD2-VTRの規格を策定し、認定を受けて開発に着手したそうです。D2-VTRは、デジタル技術が熟成する1994年まで主力として使われました。
     D2-VTR は、アナログ信号をそのままデジタル化したので変換処理が楽でした。ただ、この方法は、ある意味少々手荒い処方だったので、色のつき具合が D1-VTR に比べて芳しくないという欠点も持っていました。コンポーネントデジタル信号手法は、デジタル技術が進んだD5-VTR で再登場し、現在の主力になっています。
     D2-VTR のデジタル変換は、先に説明したようにアナログ信号をそのままA/D変換しています。
    A/D変換を行うサンプリング周波数は、14.31818MHzです。これは、カラーバースト信号(3.579545MHz)の4倍の周波数にあたります。
    カラーバースト信号を4倍でデジタル化すれば、色情報もデジタル記録できるという設計思想のようです。
     D2-VTR規格の後に開発される D3-VTRは、使用するテープを1/2インチ(12.7mm)巾とした規格となり、コンパクトになりました。
     D1-VTR信号に採用されたコンポーネントデジタル信号は、1993年のD5-VTRで再度登場します。D4-VTR は欠番です。D5は、ハイビジョン対応です。D4がなぜ欠番かと言うと、D3-VTRの開発で松下(現:パナソニック)が先行し、ソニーはベータカムをデジタル化する時にD-4規格として認可を受けるはずであったのが、タイムコードを受け持つ部分がアナログであったため、認可が下りずに欠番になりました。
    NHKでは、2008年時点では、D5を標準として映像の保存、編集、出力を行っているそうです。
    以降、デジタル放送信号は、コンポーネントデジタル信号が主流となって行きます。1993年に登場したD5-VTRは、デジタルカメラから直接映像信号を取り込み、デジタル信号で出力する機能を備え、ハイビジョンに対応していました。D5-VTRの対抗機であるソニーのHDCAMは、V5-VTRが登場した4年後の1997年に開発されました。
    以下に、デジタルビデオの原型であるD1-VTRの基本規格を示します。
     
    【D1-VTR 規格】
     
    * 使用テープ:19mm(3/4インチ)
    * テープ磁性体:酸化鉄塗布型
    * 記録方式:ヘリカルスキャン方式
    * 記録ヘッド数:4
    * ヘッドドラム径:φ75mm
    * テープ送り速度:約 286.6 mm/s
    * 相対速度:約 35.6 m/s
    * 信号方式:デジタル
    * 圧縮: なし。
    * 記録速度:80Mbps/ヘッド(総合 正味226Mbps)
    * 情報源符号化方式:
      映像:非圧縮 8ビット 4:2:2コンポーネントデジタル
         コンポーネント輝度信号(Y)を13.5MHzでデジタル化。
      音声:非圧縮 48kHz/20ビット直線量子化 x 4ch。
     
     
    ■ 4:2:2 コンポーネントデジタル信号(ITU-R BT.601) (2009.05.06追記)
     4:2:2コンポーネント信号は、映像信号をデジタル処理する手法の1つであり、現在の放送用の信号として主流になっているものです。NTSC信号は、輝度信号(Y信号)で明るさを決め、色差信号(Cb、Cr)で色を決めています。アナログ信号であるNTSCでの色差信号は、輝度信号すべてにあてがわれているわけではなく、周波数の低い部位に対してのみ当てられています。色づけ作業を真面目にやると、送信周波数帯域を大幅に上回ってしまうので、人の眼が映像を見て問題のない小さな部位領域では、色を付けずに輝度(明るさ)だけを表示させているのです。
     デジタル信号である4:2:2コンポーネントデジタル信号においても、色を付ける方法はアナログ信号と同じような方式を採用し、輝度信号と色差信号から構成される映像信号を作り、細かい部位に対しては色を付けない方法を採用しました。それが輝度信号4に対して色差信号をそれぞれ2つづつに割り当てたデジタル処理であり、これを4:2:2と呼びました。輝度信号と色差信号を色空間の用語でYUV(ワイ・ユー・ブイ)とも言うので、YUV422と呼ぶこともあります。
     上で説明したアナログ信号を、コンポーネントデジタル信号に変換する規格が、ITU-R BT.601として取り決められています。
    ITUは、International Telecommunication Union(国際電気通信連合)の略で、Rは、Radiocommunications Sector(無線通信部門)を意味します。
    この機関が策定した601番目の規格というのが、 ITU-R BT.601です。この規格では、デジタル映像信号をYUV422で処理すると規定しています。
     4:2:2コンポーネント信号とは、先にも述べましたが、輝度信号(Y)4(2画素 x 2画素)の情報に対して、色差信号の青(Cb)と赤(Cr)をそれぞれ2画素ずつあてがう方式です。4つ分の情報を持つ輝度信号は13.5MHzでサンプリングされ、色差信号は13.5MHzの半分の周波数で交互に織り込む方式としました。
    従って、色情報は輝度信号の半分しかないことになります。
     この規格では、画像のサンプル数が垂直525本で、水平が858本、これを29.97フレーム/秒でサンプリングするため、
     
        525 本(垂直) x 858 本(水平) x 29.97 フレーム/秒 = 13.5 MHz   ・・・(Rec -28)
     
    というサンプリング周波数が導き出されます。
    実際の有効画面は、ブランキング期間があるので、上の数値よりも小さくなり480画素 x 720画素(この画素構成でも縦横比は3:4です)となります。
    映像情報に対しては、何度も言いますが、この方式が持つ色情報は半分ということになります。ただ、記録される色情報は半分でも、色づけを行う処理ではすべての画素について色が割り当てられます。これがアナログNTSC信号とは異なる所です。NTSCでは、大まかな部分しか色をつけず、細かい所は明るさ(輝度)しか情報を持たせませんでした。(持つことができませんでした。)
    また、YUV422では、デジタルカメラで一般的になっている、単板CCD素子のBayer方式よりも色づけに関してはきめ細かくなっています。Bayerフォーマットでの色づけは、各画素に原色フィルタをつけて8ビット(256階調)の輝度情報を得ています。色情報は、輝度情報とフィルタの配列から計算して4画素〜9画素分の情報から求めています。反面、YUV422は、1画素に輝度情報と色差情報の合わせて16ビット(8ビット輝度情報 + 8ビット色差情報)を持つため、Bayerフォーマットより2倍の画像情報となります。この点から、デジタル放送(YUV422)は、色づけに関しては真面目に対応していると言えます。D1-VTRでは、この方法でカラー画像を記録していましたが、この処理がとても煩雑であったので、次ぎに出されたD2-VTRでは、これをやめて、NTSCアナログ信号を単純に量子化する方法にしてしまいました。NTSC信号では、細かい部位での色情報がそぎ落とされてしまうので、これをデジタル化しても、きれいな画像を作り出すことはできません。画質的は、コンポーネントデジタル信号にしたD1の方が優れていたのはこのためです。
     色を作る処理には、YUV422のほかにYUV444、YUV420、YUV410という取り決めもあります。YUV444は、全ての画素に色情報をあてがう方法なので情報量が一番多くなります。YUV410が最も簡便なデジタル録画方式となります。

     

    ■ ハイビジョン放送(アナログ放送とデジタル放送)(High-Definition Television)
     テレビ放送も進化を遂げ、NTSC信号にとらわれない、より高精細のテレビ映像が開発されました。それがハイビジョンと呼ばれる高品位テレビ(High Definition Television)画像です。
     当初、ハイビジョン放送は、アナログから出発しました。ハイビジョンの研究は、東京オリンピックが終わった1964年から始められ、8年後の1972年に規格提案がなされています。
    ハイビジョン放送は、日本のNHK(日本放送協会)が精力的に開発を進めて、1989年から通信衛星を使って試験放送を始めました。
    ハイビジョン放送では、画面を構成する走査線数を、従来のNTSCの525本から倍以上の1125本に設定し、16:9という画面構成をもっていました。今の液晶テレビの主流になっている横長の画面構成です。この信号を、そのまま送るのはとても容量が大きくなるので、独自の圧縮技術を開発しました。これがMUSE(Multiple Sub-Nyquist-Sampling Encoding system)と呼ばれるものでした。MUSEは、デジタルで映像の圧縮を行い、送信は従来のアナログ回線を使うためにFM変調伝送を行いました。MUSEでは空間の圧縮(画素近傍は動きが少ないので間引いて情報量を少なくする方法)と、時間圧縮(動きのある情報はベクトルだけを記録して再生時に補間する方法)の双方を行っていました。MUSEは、アナログハイビジョン方式の圧縮方式なので、現在のデジタルハイビジョンには採用されていません。
     
    【アナログハイビジョン放送(MUSE)規格】
    ・ アスペクト比: 16:9
    ・ 総走査線: 1,125本(有効1,035本)
    ・ インターレース: 2:1
    ・ 再生速度: 60.00 フィールド/秒
    ・ 伝送サンプリング周波数: 16.2 MHz
    ・ 時間軸圧縮率: 12:11
    ・ 圧縮方式: フィールド間、フレーム間、ライン間オフセットサンプリング方式
    ・ 動きベクトル補正: 水平±16サンプル(32.4MHzクロック)/フレーム、 垂直±3ライン/フィールド
    ・ 音声: 48kHzサンプリング 16bit(2ch)、 32kHz 12bit(4ch: 3-1ステレオ)
     
    NHKが主導で進めたこの規格も、欧米の放送業界のコンセンサスを得られず、NHK単独の開発となり、デジタルハイビジョンの発展の中で2007年9月に放送を中止しました。
     
    【デジタルハイビジョン】
      地上デジタル放送やハイビジョン放送という言葉が使われるようになって久しくなります。地上デジタル放送は、2003年から運用が開始されています。地上デジタル放送の大きな特徴の一つが、ハイビジョン放送です。ハイビジョン放送は、先に触れましたようにNHKがアナログ放送で試験運用を続けていました。その放送も終了して、現在はデジタルによるハイビジョン放送が主流となっています。2006年あたりからテレビを販売するお店では、16:9の横長の液晶テレビが並べられてハイビジョン一色になりました。
     ハイビジョンの定義は、比較的緩やかで曖昧な部分があるようです。アナログハイビジョンは、放送を中止してしまったので除くとしても、2010年時点で、ハイビジョンと称しているもののには、以下の種類があります。
     
    ・ 1920画素x1080画素(インターレース)  --- 衛星放送によるデジタルハイビジョン(画面比 16:9)
    ・ 1280画素x720画素(プログレッシブ)  --- 地上デジタル放送によるデジタルハイビジョン(画面比 16:9)
    ・ 1440画素 x 1080画素(インターレース)  ---  地上デジタル放送によるデジタルハイビジョン(画面比 4:3)
     
    この中で、上の二つは画面比が16:9を持ったもので、一番下のものは画面比が4:3となっています(ただし、表示するときに、横方向に引き伸ばして、擬似的な1920画素x1080画素とします)。放送局で使うテレビカメラは、1920x1080画素のハイビジョンカメラで整備されつつあるようで、このカメラで得られた画像を必要に応じてサイズ変換して利用されています。1920画素 x 1080画素をもつハイビジョンは、フルハイビジョンと呼ばれています。地上デジタル放送は、この画素での放送はできず、衛星放送の帯域でなければ見ることはできません。
     NHKなどの放送局では、フルハイビジョン対応のテレビカメラと編集装置で機器を整備して来ているようです。フルハイビジョンの画像は、コンポーネントデジタル映像信号(ITU-R BT.601)で統一しています。放送局内では、このデジタル映像信号を走らせるデジタル配線網が整備されていますが、この信号帯域は、以下の計算式で求められ、
     
    2,200画素 x 1,125 走査線 x 10 ビット/画素 x (1 輝度 + 1/2 色差 + 1/2 色差) x 29.97 フレーム/秒 = 1.4835 Gbps  ・・・(Rec -29)
     
    1.485 Gbpsの信号ラインが確保されています。この信号を送るため、放送局内では、HD-SDI(High Definition - Serial Digital Interface)ケーブルが開発されました。HD-SDIケーブルは、1.485 Gbpsの帯域に対応した同軸ケーブルです。外見がBNCケーブルと酷似していて、取り扱いもほとんど同じなので、アナログ信号の時代からBNCケーブルに親しんできた関係者にとっては大変扱いやすいものになっています。
    ハイビジョン放送は、この信号帯域で映像が作られて、保存・編集が行われますが、電波に乗せて送るときは、MPEG-2という圧縮手法によって、BS放送(衛星放送)では最高29Mbps、地上デジタル放送では最高23.3Mbpsで送られています。およそ、1/30以上の圧縮がなされていると言えます。
     
     
    ■ セグメント放送(Segment Broadcasting) (2009.02.03追記)
     2011年から本格的に放送が開始される地上デジタル放送では、セグメント放送が採用されています。従来のアナログテレビ放送は、送信周波数90MHz(チャンネルでは1ch)から6MHz単位で12ch(222MHz)まで割り当てられているVHF帯域と、470MHz〜770MHz(300MHzの帯域に13chから62chのチャンネルが6MHz単位で割り当てられている)UHFの帯域がありました。アナログ放送では、東京地方の1chがNHK、4chが日本テレビ、8chがフジテレビという具合に割り当てられていました。デジタル放送では、アナログ放送で使っていなかったUHF帯域の13ch〜52chを、各放送局に割り当てました。東京地方では、NHK総合が27ch、NHK教育が26ch、日本テレビが25ch、フジテレビが21chという具合です。(ただし、従来のアナログで使っていたチャンネル番号が親しみやすいため、テレビ受信機のリモコン番号は、従来の番号、すなわち、東京地方のNHK総合テレビは「1」のままに設定されています。)
     旧来の、6MHzの帯域を1チャンネル分とした枠組みを崩すことなく、この中にハイビジョン放送と音声、文字多重送信ができる工夫をデジタル技術に盛り込みました。考えて見れば、すごい技術です。旧来の送信周波数帯域の中に、ハイビジョン放送をデジタルで埋め込んでしまうのです。
     デジタル放送では、映像帯域の6MHzを14等分にしたセグメント構造としました。14等分したセグメントのうち1つは、隣り合わせたチャンネルとの干渉を避けるためのガードバンドに使用するため、放送コンテンツで使われるのは13個分のセグメントになります。さらに、13個のセグメントのうち、1セグメントは携帯端末にサービスを行う情報セグメントチャンネルとしたため、実質的には12セグメントが地上デジタル放送分として使われています。
     1セグメントは、429kHzに相当します。「ワンセグ」と呼ばれるおまけの1セグメントはユニークな機能です。全世界のデジタル放送規格は、大きく分けて3つありますが、ワンセグを採用している放送規格は、日本(とブラジル)が採用したISDB-T(Integrated Services Digital Broadcasting for Terrestrial )だけです。欧州のDVB-TもアメリカのATSCもこの機能はありません。 日本だけが、ワンセグの価値を認めてこの方式を採りました。
     
     
    ■ 計測映像分野でのハイビジョンテレビの役割 (2008.12.16記)(2009.05.06追記)
     
    ▲ 計測分野での高精細カメラと放送用ハイビジョンカメラの違い。
     ハイビジョン放送が家庭に入り込むようになって、高画質の動画を楽しむことができるようになりました。ハイビジョンテレビが家庭に置かれたことにより、ハンディタイプの家庭用一体型デジタルビデオもハイビジョン対応になり、簡単に高画質動画を自分のテレビで楽しむことができるようになりました。また、IEEE1394の高速インタフェースの開発によって、パソコンにもハイビジョン画像を取り込んで編集、再生、保存ができるようになりました。我々のような画像を計測手段として使っているものにとって、放送局用のハイビジョン放送は有効でしょうか。この問題を考えるときに大事なことは、両者の成り立ちを知ることだと思います。放送映像は、連続した切れ目のない映像の提供が主命題であり、いかに魅力ある映像を作るか、つまり、視覚に訴える手法がもっとも大事であるのに対し、計測手段として使う高精細動画は、動画像を単に流して見るだけでなく、画像を止め、1コマ送ったり戻したり、ゆっくり再生をしたりします。また、必要に応じて画像に物差し(カーソル)を発生させて、興味ある点(画素)の位置情報と濃度情報を求めることをします。放送映像が流れるような視覚効果をねらうのに対し、計測映像は、計測要素(時間分解能、空間分解能、濃度分解能)を重用視します。
     こうした観点から、放送局で行われている映像作りと、我々計測屋が関わっている動画像の違いを述べます。
     
    ● 画面構成の縦横比のあいまいさ
     テレビ放送では、幾何学的歪みに対する厳格さがありません。これは、パソコンやデジタルカメラが普及して、テレビ放送にも影響を与えだした1990年代からとみに顕著になってきました。というのは、デジタルカメラやパソコンの表示が1画素を縦横同じ寸法の正方画素で行っているのに対し、テレビ放送では、NTSCアナログ放送時代のCCDカメラに、縦横の比率が違う画素の個体撮像素子を使っていた経緯があり、これが混在してしまったのです。NTSC規格では、走査線が525本と決められていたので、画質を向上させる必要上1走査線上の解像度を上げるために画素を詰めるようにしました。DV信号というのがあります。これは、NTSCアナログ信号をデジタル化したものですが、この規格では、画面を4:3というアスペクト比にして、画面を720x480画素構成としました。一画素が正方画素であったら、3:2の画面比になる画素配列です。これを4:3に収めているのですから、デジタルビデオカメラに使われている撮像素子の1画素の大きさは、横方向が縦に対して8/9(すなわち11.1%短い短冊状)にしなくてはなりません。
     また、1990年代の終わりに、ハイビジョン放送に備えて16:9の画面比を持ったテレビ受像機が販売された際に、通常のNTSCの4:3( = 12:9)の画面を強引に横に引き伸ばして放映していた時期があります。当然、円形のものは横長の楕円に、美人俳優も33.3%も横に太った体型として映し出されました。テレビ放送では、33.3%の幾何学的誤差などあまり関心がなくて神経を使っていなかった感じを受けました。映画監督が見たら腰を抜かしそうな画面でした。
     デジタルハイビジョンの時代になっても、同じようなことがあります。地上デジタルハイビジョンは、送信帯域の関係上、ハイビジョン画像は、1440x1080iしか送ることができません。地上デジタルハイビジョンは、正式には1280x720pが正しい画素構成で、この画素が16:9を正しく維持している画面比です。フルハイビジョン(1920x1080i画素)は、衛星デジタルハイビジョンか、DVD(Blu-ray)でなければ再現できないのです。しかし、フルハイビジョン対応の受像機を持っている視聴者のために、1440画素を1920画素に増やす(33.3%も横長にしてしまう)機能があるそうです。
     テレビ放送は、こと幾何学的な画面構成から言うと、正方画素のデジタル画像が後から出てきた規格のために、幾何学的歪みに対して非常にルーズな感じを受けます。こうした機器を画像計測で使う場合には、縦横の倍率比を補正する必要があります。
     
    ● 圧縮による情報の損失
     テレビ放送には、30フレーム/秒(29.97フレーム/秒)という絶対条件があるので、これが最も優先される規格です。そのために、限られた送信帯域の中で見た目に許される画像情報の間引きを行いました。デジタルテレビ放送では、MPEG-2が採用されました。MPEG-2圧縮は、時間方向成分の圧縮を行っています。これは、映画をDVDに収めるときに採用された圧縮方式です。この方式では1枚1枚の独立した画像を持っておらず、1枚目と、ある間隔をあけた、例えば、10枚目を独立した画像で保存し、その間だけは、変化のある部分だけを保存するという方式になっています。再生時、画像を構築するのに、高速処理をする画像処理装置が必要となります。また、映画鑑賞では、計測分野のように、動画像を止めたり、スローで送ったり逆転再生をさせたりすることはまずないので、計測応用には、よほど強力な処理手法を使わないとストレスを感じます。また、圧縮によっては、細かい部位が失われるので、希望する解析結果が得られない問題が出てきます。放送局分野でもMPEG圧縮は編集がやっかいなので、オリジナル映像はフレーム毎に録画された素材で行うようにしているようです。
     
    ● 濃度情報のリニアリティ
     テレビ放送では、人間の目に合うように、階調を調整して放映しています。これは、再生側だけではなく、撮影側でも受像機の特性に合うようにラチチュードを調整しています。計測分野では、画像をデジタル化するときに、階調を、例えば8ビット(256階調)で割り振る場合、リニアになるように処理します。入射光量に対する濃度値が正比例し、かつその傾きが1(γ = 1)になる方法、つまり、10,000ルクスの被写体が濃度値で200あるとすると、1,000ルクスの被写体が20の濃度値になるような濃度曲線をとります。この方が、計測にとっては理解しやすい(計算にのりやすい)ので、この方法をとります。物体の明るさを測るときは、画像にカーソルを発生させて濃度プロファイルを取ったり、それを数値データとして表計算ソフトウェアに移したりします。応用によっては、10ビット(1024階調)以上の濃度画像をとることもあり、この時にはすべての階調をコンピュータモニタに映し出すことはできません。液晶モニタは、せいぜい100階調(から200階調)程度しか表示できないのです。
     しかし、テレビ放送の場合は、最初に、テレビ受像機(ブラウン管や液晶ディスプレー)の映り具合を含めて、画像の写り具合が人間の感性に合うように調整しますので、撮影の際の取り込みは、必ずしも直線になっていません。暗い部分のディテールを若干残して、かつ明るい部分を飛ばさないように階調を調整しています。こうしたカメラを計測用に使うには、階調のよくわかった濃度タブレットを撮影して、キャリブレーションをとる必要があります。また、通常のカメラは、使用温度(撮像素子温度)によって感度が変化するので、キャリブレーションは頻繁に行う必要があります。
     
    ● 時間スケールのあいまいさ
     計測屋にとって、時間ファイターほど重要なものはありません。一枚一枚の画像がどの時間タイミングで得られたものか、はたまた、一枚の画像に与えた露光時間はどのくらいか、露光方式はレーザかキセノンストロボか、電子シャッタかなど、時間に関するファクターに細心の注意を払って画像を見ます。方やテレビ放送では、与えられた番組時間内に放送を無事に終了させるという約束があるため、枚数の詰め込み作業が大きな関心事となります。時間を引き延ばして見せたり短縮させて見せることは映像表現の一手段であり、時間軸を正確に表現することは、それほど重要なことではないようです。科学番組を見ていても、進行役は現象がよく見えたか見えないかに焦点を置いて、撮影された映像の撮影速度がどのくらいで、それをどのくらいの再生速度で放送しているかという説明や表示がありません。我々の分野で、高速度カメラを使ってスローモーション再生を行うと、担当するエンジニアは、まずこの映像がどのくらいの速度で撮影されたかを聞いてきます。そして、画像の隅に時間情報のわかる表示を入れてくれと要求します。それほど、現象を究明している人にとっては時間軸は大切なのです。
     
     
     ■ コンピュータによるデジタル画像 (2009.02.08)(2009.05.28追記)(2012.10.09追記)
     
     コンピュータは、デジタルしか扱えないので、コンピュータで扱う画像も当然デジタル画像となります。
     コンピュータによるデジタル画像は、1965年、NASAが行った火星探査衛星の火星表面の画像化に始まります(「最初のデジタル画像」の項目参照)。
    火星からの画像データは、NASAにあったIBM科学計算用コンピュータ「7094」(1962年開発、当時、日本円にして11億円の高級コンピュータ)にかけられて、画像処理をした後、火星表面のマッピングに成功しました。
     1981年から登場したパソコン(IBM-PC、及びApple Macintosh)の発展により、デジタル画像を扱う応用が急速に増えて、DTP(デスクトップパブリッシング)という分野が確立します。
    パーソナルコンピュータを使ったデジタル画像は、当初、フィルム画像をフィルムスキャナーでデジタイジングすることから始まりました。
    当時(1980年代後半)は、デジタルカメラはありませんでした。ビデオカメラからのNTSCビデオ信号は、ビデオキャプチャーボードを介してデジタル画像に変換されました(右図参照)。1980年代のパソコンは、高画質の画像を扱うには、CPUの性能や画像表示能力、画像を保存するメモリ性能などが不十分でした。
    そのため、パソコンを補助する機能がまず発達します。それが、画像ボード(右図 - 4)と呼ばれるものでした。
    パソコンのCPUにできるだけ負担をかけずに、画像入力側でやれるべきことはすべてやってしまおうという考えだったのです。
     
    ■ バス規格
     画像ボードでデジタル画像に変換されたデータは、コンピュータのデータバスによって、処理装置(プロセッサ)やDRAMに送られます。
    1984年当時、IBM-PCパソコンに標準で装備されたボード規格は、ISA規格(Industry Standard Architecture)というもので、16ビットで8MHzのクロック(16MB/s)を持っていました。
    ISAは、時代とともに若干の性能向上が行われました。しかし、CPUの性能向上の方がおどろくほど早く、ISAバスの性能があまりにも見劣りするようになったので、1991年に、25倍の性能を持つPCI規格(Peripheral Component Interconnect)を作り上げました。
    この規格は、比較的長寿で、18年経った2009年にあっても第一線で活躍しています。
    画像を取り込む画像ボード(キャプチャーボード)は、この規格に準じたものが多く作られました。
    2002年には、PCI Expressという規格が作られ8GB/sの高速転送ができるようになりました。
     ただ、IEEE1394やUSB2.0、ギガイーサネットなど簡単な接続で高速通信ができる規格が整備された2000年以降は、PCIバスを使った拡張ボードに代えてこうした規格によるデバイスが作られはじめ、カメラ側でもこうしたインタフェースを介してコンピュータに取り込まれることが多くなりました。従って、PCIバスに差し込んで使う拡張ボードは、需要が急激に落ちました。
     
    ■ 高速通信規格
     パソコンの性能が向上して、通信方式が高速化し、デジタルカメラの性能が格段に進歩するようになってくると、画像を直接コンピュータに取り込むことが可能になりました。
    デジタルカメラの出現は、1990年代に入ってからです。
    1000x1000画素のいわゆるメガピクセルカメラの登場をもって真のデジタル画像の時代に入ったと言えるでしょう。
    こうした時期に、データを高速で取り込める、イーサネットIEEE1394USB2.0が登場しました。
    これらのデータ通信規格は、データ転送速度もさることながら、使い勝手も良かったので計測カメラ用のデータ通信ポートとして広く使われるようになりました。
     
    ■ 画像取り込みの基本
     右上図に、コンピュータを使った画像取り込みシステムの構成を示します。
    図中の右側の箱(5.画像プロセッサ部)が、コンピュータの中身です。
    コンピュータは、中央演算処理装置(CPU)を中心として、デジタル処理される周辺機器が接続されています。
    中央演算処理部からは、データの出入りする中央幹線道路(システムバス)が走っていて、このバスにハードディスク(HDD)や、メモリ(DRAM)、画像表示ボード、画像取り込みボード(画像キャプチャーボード)、マウス、キーボードなどが接続されています。
    コンピュータに取り込まれるデータが膨大で、コンピュータの処理能力を上回る時は、外部でいったんデータを蓄えて、コンピュータの能力に併せて送り出すバッファ装置を設けたり、画像キャプチャボードを作ってコンピュータに接続しています。コンピュータを使った画像の取り込み性能は、
     
    カメラ自体の取り込み速度 < (1/2) x 画像ボードの取り込み性能
      < (1/10) x システムバスの転送速度 < (1/2) x CPUの性能  ・・・(Rec -30
     
    というおよその関係になっています。カメラがいくら高性能で取り込み速度が速くても、画像キャプチャーボード側がカメラの読み込み速度の2倍以上の取り込み速度を持っていなければ、カメラの性能を十分に発揮することはできません。また、それ以上に、パソコンのシステムバスの速度、CPUそのものの性能が十分であることが求められます。
    例えば、1280x1024画素、8ビット白黒のカメラがあり、1秒間に30枚の割合で撮影でき、ファイル加工せずにそのままデータを転送したとすると、1秒間に送るデータ量は、
     
    1280画素 x 1024画素 x 8bit/画面 x 30画面/秒 = 314.57 Mbit/s  ・・・(Rec -32)
     
    となります。この速度は、ISAバス(128Mbit/s)ではとても対応できない速度であり、PCIバス(4Gbit/s)では1/10の速度ですから十分に対応できます。
    したがって、このカメラは、PCIバスの画像ボードが必要となり、これを経由して、パソコンのDRAMに読み込むことが可能となります。
    取り込んだ画像を、パソコンで希望するファイルフォーマット、例えばBMPとかJPEGに変換する場合に、画像データを取り込んだ端から処理を行うと、CPUとDRAMには、画像の取り込みとファイル変換保存という二つの仕事が課せられ、双方に仕事の割り当てを振らなければなりません。
    したがって、その処理を受け持つCPUには、32ビットで400MHz以上の性能を持ったものが望まれます。
    一般的に、イーサネットにしてもUSBにしても、カタログ値にあるデータ転送速度を常時確保することはとても難しく、せいぜい1/10程度の性能と言われています。
    各デバイスは、こうした理由から、そうした冗長性を踏まえてシステム構築を行う必要があります。
     ノートパソコンは、デスクトップパソコンに比べて、CPUも比較的非力で、システムバスも高速に作れられていないので、高速転送を主目的とするならば、デスクトップパソコンを使用した方が無難です。
    なぜノートパソコンがデスクトップに比べて性能が劣るのかと言えば、ノートパソコンは携帯性が重要視されるため、消費電力の大きな高性能CPUを搭載することが難しく、また、CPUやシステムバスが載るマザーボードはコンパクトに作らなければならず、そうすると発熱が大きな問題となるため高速にできないのです。
    ノートパソコンには、拡張スロットとしてPCカード(1993年、16ビット、5MB/s)、CardBus(1995年、32ビット、132MB/s)が使われ、2003年にExpressCardが策定されました。ExpressCardは、500MB/sの転送速度を持っています。
     
     
    ■ コンピュータの仕組み
     画像をコンピュータに取り込むとき、コンピュータの仕組みを知っておくと、デジタル画像の本質をより深く理解して利用することができます。
    そこで、コンピュータがどのようにデータ処理をしているか、ハードウェアの観点から見てみることにします。
    下図に、2008年当時のパソコンの内部回路を示します。
     
    ▲ CPUの性能
    コンピュータの中枢部中の中枢です。人で言うと、脳に相当します。CPUは、クロック(内部発振信号)に合わせて演算を行います。従って、CPUの性能は、クロック周波数と扱うデータビット数でおおよそ決まります。
    パソコン(1974年、Altair8800)ができた当初のCPUは、Intel8080で、8ビット、2MHzの性能を持っていました。これは、256個のデータを1秒間に2百万回のスピードで処理する能力を持っていたことになります。現在のCPUは、64ビットのデータビット数で3.2GHzの性能を持っています。実に1垓倍(1兆の1億倍)のデータ量を扱える性能になりました。1秒間に2百万回も演算をするというのは相当なスピードだと思えるのですが、画像(画面表示)を扱うと、その数値もうすのろになってしまいます。
    画像表示を単純計算すると、VGA(640x480画素、24ビットフルカラー)での60フレーム/秒表示は、8ビット、55.3MHzのCPUが必要となります。初期の8ビットマイコン、Intel8080を使うと、27秒かけてやっと一枚のVGAビット画像が表示できる性能しかありませんでした。
     ちなみに、当時はCPUで直接画像描画することは不可能だったので、キーボードから打ち込んだキャラクターをキャラクタージェネレータに渡して、そこでVGA画面を作って画像表示を行うようになっていました。日本語のパソコンでは、パソコンに漢字ROMと呼ばれるチップが内蔵されていて、キーボードから打ち込んだコードをここで漢字変換させてキャラクタージェネレータに送っていました。当時は、文字表示しかできない性能だったのです。
     
    ▲ システムバス(FSB = Front Side Bus、及び、NB - SB Data Bus)
    システムバスは、CPUにデータを送ったり、CPUの処理結果を関連デバイス(モニタ、HDD、DRAMなど)に送り出すデータ線です。人間で言うと、脊椎を通って走る中枢神経に相当します。このデータバスの広さ(ビット数)と速さ(クロック)がコンピュータの処理能力に大きな影響を与えます。
    システムバスの能力が低いと、データ送受信で交通渋滞がおきます。システムバスでは、DRAMへデータを転送とモニタ表示のための信号送信の二つが一番大きな負荷となっています。システムバスは、CPUのデータビット数と対をなして、関連デバイスとつながっています。従って、64ビットCPUであるならば、64本のデータバス線で構成され、CPUにデータを供給し、また、処理されたデータをCPUから関連デバイスへ送ります。その速度は、クロックで533MHz〜1,333MHzです。このスピードは、CPUの性能とチップセット(ノースブリッジとサウスブリッジ)の性能の兼ね合いで決められています。システムバスのクロックが速い方が、高性能であるということが言えます。
    【Core i7のシステムバス: QPI=Quick Path Interconnect】
    インテルが2008年に発売したCPU、Core i7は、新しいシステムバスQPI = Quick Path Interconnect を採用し、その転送速度は25.6GB/s ( = 6.4GT/s:ギガバイトトランスファ毎秒)である。
     
    ▲ BIOS(Basic Input Output System)
    BIOS(ばいおす)は、コンピュータの根本情報を持っている部分で、人間でいうと脳幹にあたります。
    データの出し入れの情報をこの部分で担当しています。BIOSは、パソコンのOSが開発された1975年から存在している重要なデバイスで、CPUと周辺機器の橋渡しをする役割を持っていました。
    これがないと、フロッピーに書き込んだファイルを読み出すことも、書き込むこともできません。
    1981年にIBMがパソコンを開発した時に、IBMは、すべての規格をオープンにして、FDD(フロッピー・デスク・ドライブ)やDRAM(ランダムメモリ)、HDD(ハードデスクドライブ)、モニタなどをいろいろなメーカに作らせて競争させました。
    しかし、ただ一点、コンピュータ部品に法的なプロテクトをかけて、他のメーカに作らせないようにした部分があります。それがBIOSだったのです。
    BIOSは、不揮発性メモリで構成されたプログラムです。IBMは、このBIOSのコードをすべてオープンにして、逆に違法コピーさせないようにしました。
    このBIOSが作れないかぎり、コンピュータはたんなるガラクタ箱です。
    IBMは、ここを徹底的に保護することによって、自分たちのパソコンを保護しようとしました。しかし、この戦略はものの見事にはずれて、IBMの開発したBIOSと完全互換を持ちながら、まったく違ったコーディングで書かれたBIOSが作られました。
    それを作ったのはコンパック(Compaq)とフェニックステクノロジーでした。
    このBIOSを手に入れれば、IBM-PCと互換のあるコンピュータが作れるようになったのです。
    こうして、コンパックを初めとしたクローンPCが台頭し、それに伴い、競争原理は世界レベルとなり、パソコンの急速な発展が始まりました。
     

      
    ▲ ノースブリッジ(Chip set North Bridge)
    ノースブリッジは、コンピュータ(CPU)からの指令を受けて、最適なデバイスにデータを転送する司令室の働きをします。パソコンには、システムバスにノースブリッジとサウスブリッジの二つが接続されていて、CPUとのデータ転送における制御管理を行います。ノースブリッジでは、高速データ転送デバイスの制御を行い、サウスブリッジでは、低速データ転送を行うデバイスの担当を行っています。これは、CPUにつながるデータバスを高速道路と一般道路に見立てて、通信速度に応じてデータバスを使い分けるという考え方に立っていて、データ転送が遅くても良いもの(マウスの動きやCDからのデータ読み書き)と、常時、高速でデータ転送を必要とする画像表示やDRAM間での交通渋滞を解消する目的を持っています。ノースブリッジでは、従って、DRAMのデータ転送や、グラフィック処理をするデバイスとつながっています。DRAMやグラフィック表示が、処理を最もたくさん行っているデバイスとなります。
    興味あるのは、PCI Expressボードです。このボードは、ノースブリッジに接続されています。非常に高速でデータ通信を行うために、ここに配置されています。
     
    ▲ サウスブリッジ(Chip set South Bridge)
    サウスブリッジは、比較的データ転送の遅い非定期的なデバイス通信管理を行う司令塔です。ここに、HDDや、CD/DVD、USB、イーサネット、PCIといったインタフェースがつながります。例えば、イーサネットからデータを受信してハードディスクに保存する場合には、サウスブリッジだけの管轄でデータ処理を行うため、CPUが占有される割合を低くすることができます。このように、ノースブリッジやサウスブリッジは、CPUの代理を兼ねることもしています。 
    ▲ DRAM(Dynamic Ramdom Access Memory)
    DRAMは、コンピュータに実装されている作業用メモリであり、OSが立ち上がる際にこのメモリにOSが移植されて常駐します。WordやPhotoshopなどのアプリケーションソフトを立ち上げると、HDDに保管されているソフトウェアがこのメモリ部にコピーされます。また、コンピュータで処理されるデータも、全て、一旦ここに保管され、メニューの「保存する」というボタンでハードディスクやメモリスティックに保存されます。なぜ、OSやアプリケーションソフトがDRAMに移されるのかというと、DRAMは、アクセスがとても速いからです。DRAMは、コンピュータが働いているときの作業場としての機能があるので、広ければ広いほど(メモリ容量が大きいほど)、そしてアクセスが速いほど快適で高性能と言えます。現在(2009年)のDRAMは、1GB〜4GBまでをコンピュータに実装することが多いようです。このメモリは、コンピュータを購入した後からでも追加で取りつけることができます。1990年当時のDRAMはとても高価で、2MBで20,000円程度していました。DRAMは、その特性上、素子に絶えず電気を流してメモり内容をリフレッシュし続けていないとメモリが消えてしまうので、コンピュータの電源を切ると、この作業場の記憶は消えてしまいます。
    現在(2009年)のDRAMの書き込み・読み出し速度は、0.2GB/s〜3.2GB/sです。1,000 x 1,000画素の8ビット白黒もしくはRAWデータ映像なら3,000コマ/秒で取り込める性能値です。(「半導体メモリ」参照。)
     
    ▲ AGP(Accelerated Graphic Port)
    AGPは、コンピュータディスプレーの表示のための通信ポートです。コンピュータの働きの中で、もっとも負荷のかかる仕事が画面表示です。
    単純計算で、1秒間に60フレームの割合で、1280x1024のフルカラーを表示させるとすると、
     
      1280 画素 x 1024 画素 x 3 バイト/フレーム x 60 フレーム/秒 = 235.9 MB/s   ・・・(Rec -33)
     
    のデータ転送能力が必要です。
    実際は、常時、これだけの情報をCPUからディスプレーに送ってはおらず、変化した情報だけを送ったり、画像表示ボード部にメモリと画像プロセッを搭載して、ローカルに画像表示を担当させ、CPU部の仕事を軽減させて表示能力を高めています。
    AGPでは、ディスプレーの高解像度表示を満足させるために、266MB/s〜2.13GB/sの転送能力を確保しています。
    ▲ PCI Express(Peripheral Component Interconnect Express)規格
    PCI Expressは、2002年に策定された新しい拡張インタフェースボードの規格です。
    このインタフェースは、高速通信が可能であるため、ノースブリッジを介してCPUにつながれています。
    その通信速度は、8GB/sであり、従来のPCIより16倍も高速になっています。
    この性能は、画像表示用のポートであるAGPよりも、3.7倍から30倍ほど速いので、PCIExpressを使った画像表示ボードも作られています。
    PCI Expressは、レーンという規格があり、1レーンから16レーンまであり、パラレルデータ転送を可能にしています。その速度は概ねレーン数に比例します。PCIe x1で500MB/sの速度を持ち、PCIe x16で8GB/sの速度を持っていました。
    この速度は1世代目のもので、これをPCIe Gen1と呼んでいます。
    2世代目のPCIeは2006年に策定され2倍の速度(1GB/s〜16GB/s)を持っています。
    3世代目のPCIe Gen3は、2010年に策定され2世代より倍の転送速度(2GB/s〜32GB/s)を持っています。
     
    ▲ PCI(Peripheral Component Interconnect)規格
    PCIは、パソコンでもっとも普及した拡張インタフェースボード規格です。1991年に規格化されました。いろいろな付属装置がこのインタフェースボードを介して接続されています。NTSCアナログ信号による画像ボードや、アナログデータ収録装置、イーサネットボード、SCSIボードもこの規格を使っています。
    パソコンができた当初(1981年)は、ISAバスという規格が一般的でした。ISAバスは、16ビットで10MHzの通信速度(20MB/s)しか持たなかったので、500MB/sの速度を持つPCIは、ISAに比べて25倍も速い性能を持っていました。
    PCIボードは、2009年時点でもまだ第一線で活躍しています。
    ただ、高速画像ボードのように、この性能に不満のある拡張ボードもあり、そうした応用には、PCIの16倍の性能を持つPCI Expressに置き換わりつつあります。
    2012年の時点では多くのデスクトップパソコンにPCI Expressが採用されています。
     
    ▲ USB、イーサネット、SCSI、IEEE1394、他
    外部装置とデータ通信を行うための規格です。パソコン内部では、比較的低速の速度領域に位置しています。これら個々の規格については、データインタフェースで詳しく触れています。
     
     
      
            
     
     
     
    ■ 画像の転送 (2004.10.24)(2009.03.30 追記)
     
     パソコンで動画が見られる、それも高画質で!
    今では当たり前のことが、14年前(1995年)には考えられないことでした。
    1995年当時は、静止画像をインターネットで送ること自体でさえも至難の業だったのです。
    それが2000年くらいから、普通のパソコンを使って高解像度のデジタル画像をストレスなく扱えるようになりました。
     
    一般のパソコンで膨大な画像データを扱えるようになったのは、
     
    ・ CPUが高速になったこと、
    ・ 大容量の記憶装置が安価になってきたこと、
    ・ 画像を転送する手段が高速になって来たこと、
    ・ 画像フォーマットが巧妙になったこと
     
    などが挙げられます。
     
     1990年までは、データのデジタル転送と言えば RS232C が一般的でした。
    当時、RS232Cは、電話回線を使ったデータ通信時代の主役でした。このデジタル通信は、1秒間に9,600ビットのデータが送信できました。
    それが2000年には、ギガベースのイーサネットが確立し、IEEE1394という高速通信の規格も決まり、さらにUSB2.0という使いやすい規格も出来上がりました。こうした恩恵に預かって、さらに画像データファイルの圧縮(JPEGやMPEG)という技術が向上して、100万画素を超える画像をストレスなく記憶装置に貯えることができるようになりました。
     
     この項では、画像データの通信手段について述べて見ようと思います。
    最初(1998年)にこの項を書きはじめて、今年2012年で14年の歳月が立ちました。
    テクノロジーは恐ろしく進歩するものです。
    家庭用AV機器に使われているアナログ信号端子。米国RCAが開発したのでRCA端子と呼んでいる。
     
    【NTSCビデオ信号の送信について】 (2006.09.02追記)
     1940年代後半から、現在までテレビ放送に長く君臨してきたNTSC規格は、一秒間に30枚の映像を4.2MHzの帯域で情報処理して送信することができました。
    この信号は、何度も述べていますがアナログ信号でした。
    1990年までの技術では、同じ内容の映像信号をディジタルで送ることはできませんでした。その理由は、アナログ信号では、送信帯域の4.2MHzが解像力に相当し、信号の振幅成分がダイナミックレンジに対応するのに対し、ディジタル信号ではダイナミックレンジ8ビット分も周波数成分に直さなければならず、帯域が不足してしまうからです。
     
     一枚の画像を、最も古い通信規格であるRS232C通信で転送することを考えてみましょう。
    この時、送信する画像は、512画素x512画素、 8 ビット(白黒)で量子化(ディジタル化)したものと仮定します。
    RS232Cは、1秒間に最大9,600ビット(= 9,600baud、9,600 bps)のデータを転送できます。
    これを単純に計算すると、
      512画素 x 512画素 x 8ビット/画面 x 1/9600 ビット/秒 = 3分40秒    ・・・(Rec -34)
    となり、最高の転送速度でも、1枚の画像を送るのに3分40秒かかることになります。
    NTSC信号(アナログ画像)では、この時間に6,600枚の映像が送れました。
    実際のところ、RS232C信号では信号の転送を確実にするために、データの切れ目にストップビット、パリティチェック、Xパラメータなどが入り、これにより3 〜 5倍の転送時間がかかります。
    このことから、RS232C(FAX、コンピュータモデム通信も似たようなもの)を使って映像を送ることがいかに気の遠くなるようなことなのかが理解できると思います。
     
     アナログ信号による撮影と記録は、デジタル通信速度が遅い時代には、確固たる強い地位を築いていたのです。
     
    以下、データ転送技術の変遷を説明したいと思いますが、
    その前に高速大容量データ転送を支えたケーブルとその接続方法(コネクタ)について紹介します。
     
     
     
    ■ コネクタとケーブル  (2009.06.11追記)
     
    【映像信号を送るコネクタと通信方法について】 
     映像信号は送る情報が多いので、アナログ、デジタル時代を問わず送信技術や接続するコネクタ開発に多くの労力が払われてきました。以下、大容量、高速通信に使われたコネクタとケーブル、通信規格について紹介します。
    電気信号、特に、映像情報などを含めた周波数の高い情報信号を送る方法については、これまでにいろいろな方式が考案されてきました。コネクタは、信号ラインを接続する所で、しっかりと接続されていないと信号がとぎれたり、減衰したり、ノイズが入ったりします。コネクタは、また、着脱が容易でなければなりません。容易、かつ、信頼性の高いコネクタが理想のコネクタとなります。
     高速大容量データ通信では、従来、同軸ケーブルと呼ばれるものが使われてきました。これは、アナログ/デジタル両方に使われ、歴史的には海底ケーブル通信、テレビ放送、ビデオ放送に使われました。また、デジタル通信の時代に入ると、ツイストペアと呼ばれる1対の信号線による不平衡信号が使われるようになりました。そうした信号形態に合わせてコネクタが開発されました。
     
    ■ RCAコネクタ/ケーブル 
     米国の音響・映像メーカRCA(Radio Corporation of America)社が、1940年代に開発した音声信号の接続端末コネクタを、RCAコネクタ(右写真。使用周波数: 10M Hz)と呼んでいます。このコネクタは、蓄音機(レコードプレーヤ)の音声信号をアンプに接続するために開発されました。安価であることと、使い勝手が良いこと、性能が良いことから一般的になり、オーディオ機器にはすべてこのタイプの端子が使われていました。ビデオの時代になっても家庭用の信号ケーブルにはRCAコネクタケーブルが使われました。映像信号でも、家庭用のビデオ帯域であるならば十分な性能を確保できたものと考えます。しかし、放送局や周波数の高い信号を扱う分野では、性能が満足できなかったので、以下に示すBNCコネクタが一般的になりました。
     RCAコネクタは、比較的太い正極棒が中心にあり、その周りを「割り」の入ったグランドターミナルで囲まれています。「割り」が入っているのは、バネ効果を利用してプラグ装着時の接触性を良くするためです。コネクタのピン接続は、電気信号を通信する上でトラブルの多い部分です。ピンの接続は、微視的に見ると面で接触しておらず点で接触しています。そのためにバネ作用を利用して力を与えてコンタクト面をできるだけ多くしています。また、コンタクト面に金メッキを施して接触性を高める工夫もしています。
     現在のRCAケーブルは、家庭用のアナログAV機器によく使われていて、右に示したような色分けしたケーブルで、映像信号(黄色)、音声信号右側(赤色)、音声信号左側(白色)という取り決めになっています。アナログ信号は、デジタル機器が主流になってきている現在にあっては使われなくなる傾向にあります。
     
     
    ■ BNCコネクタ/ケーブル、映像出力インピーダンス(75Ω)
     ビデオ信号を取り出してVTRやモニタに接続するときに、使用する接続ケーブルのことを、我々は何気なく「75Ω同軸ケーブル」と呼んでいます。また、ビデオ信号のコネクタは、BNCと呼ばれるワンタッチで接続できるコネクタと、RCAと呼ばれるピンジャック方式のコネクタを使用しています。BNCは、RCAに比べると高価なコネクタで、放送局用や計測機器などの高級な装置に使われます。ピンジャック(RCA)コネクタは、家庭用のオーディオ、ビデオ機器などの低い周波数(10MHz程度)のケーブル接続に使われています。
     映像信号は、非常に高密度な(周波数が高い)信号ですから、ノイズに対して敏感に反応します。また、接合部(コネクタ部)で信号速度が変化し、高周波信号であるほどその問題は顕著になります。BNCコネクタは、映像信号を扱う帯域では、こうした問題をクリアする満足できるものでした。高周波信号を扱うコネクタとしては、今述べているBNCコネクタや、M型コネクタ、N型コネクタ、F型コネクタが使われてきました。こうしたコネクタは、通信分野で培われ発展してきました。
     BNCとは、Bayonet Neill Concelman connectorの短縮名称です。時に、British Naval Connectorとか、Bayonet Nut Connectorとも呼ばれていますが、いずれも誤りです。BNCコネクタが使われる前には、N型コネクタ(下写真参照)と呼ばれる高周波信号用のケーブル結線コネクタがありました。これは、BNCより一回り大きなねじ込み式の耐水型高周波対応(12GHz)のものでした。N型コネクタは、ベル電話機研究所のPaul Neillが1940年に開発しました。また、Cコネクタ(使用周波数: 12GHz)と呼ばれるものが、Amphenol社(コネクタで有名な米国の会社)のエンジニアCarl Concelmanによって設計され、放送局用のビデオ信号コネクタとして使用されていました。この二人(NeilとConcelman)の設計したコネクタの良い所をとって、より簡単に確実なコネクタを作ろうということで、1940年代に作られたのがBNCコネクタだったのです。BNCは、人の名前を取ってつけられた名前です。BNCコネクタの使用周波数帯域は、2GHzとなっていて、N型コネクタの12GHZよりも一桁も低い性能ですが、取り扱い勝手がよいので、周波数帯域の低いビデオ信号用に重宝されました。BNCコネクタは、イーサネットケーブルの初期のタイプの10Base-2 にも採用されました。また、デジタル放送の通信ケーブルであるHD-SDIにもBNCコネクタが使われています。
     同軸ケーブルは、ケーブルの芯が銅線でできていて、その回りをポリエチレンなどの絶縁物で覆い、さらにその回りを網状のシールド線で覆っています。電気を流す時、ケーブルが長いと抵抗が増えて遠くまで流しずらいという性質があります。不思議なことに、交流を流す場合には、ケーブルの持つ直流抵抗(オーム)と、インダクタンス(誘導)、それにキャパシタンス(容量)を特定の値にしておくと、ケーブルの長さに関係なく、高周波数に対し一定のインピーダンス(交流の抵抗値)を示すようになります。つまり、(交流)インピーダンスの取れたケーブルを使うと、ケーブルの長さに関わらず電気信号(高周波信号)を損失なく伝えることができ、5mでも40mの長さでも良好な電気信号を得ることができます。
     一般の同軸ケーブルは、現在、50Ωと75Ωの2系統あります。75Ωはビデオケーブルによく利用され、50Ωは、通信ケーブルや、コンピュータの初期のイーサネットケーブルに使用されました。
     
    BNCコネクタ。
    「N」型コネクタと「C」型コネクタを組み合わせバヨネットタイプとした。両者よりも小型化した。
    「N」型コネクタ。
    BNCの原型。ねじ込み式。
    「C」型コネクタ。
    BNCの原型。メスのアースに取り付けられた2つの突起(stud)にひっかけて着脱する方式はBNCと同じ。
     
    ■ 耐環境コネクタ
     高性能電子機器を、屋外で使用したり、厳しい環境で使用する時に使われるコネクタが、以下に示すような耐環境コネクタです。こうしたコネクタの製造規格は、アメリカの軍規格(MIL-spec)が古くからしっかりしたものを公開しているので、宇宙開発分野や産業用分野(自動車搭載の計測機器)でもこの規格に準拠したコネクタを使うことがあります。ミルスペック(MIL-spec)のコネクタは、しっかりとコネクタとレセプタクルを接続する構造になっており、振動や衝撃に対しても簡単に緩んだり損傷しないことが求められています。また、温度条件に対しても規格が決められています。最近では、コンピュータなどを使った通信データにもこのコネクタを使うので、高い周波数を伴う信号に対して特性が良くてEMI対策が施されています。接続ピンとソケットは、良好な接触面を得るために、金メッキが施されています。
     
     
    提供: Amphenol社  
     航空機や船などの環境性が重視される分野では、上図に示したコネクタが使用される。
     このコネクタは、Tri-Startと呼ばれるもので、MIL-DTL-38999規格を満足したものである。
     このコネクタは、1回転で10mm強のねじ込みが可能となっている。
     シェルは、ステンレス構造で、電磁ノイズに対する配慮がなされ、海水に対する防蝕にも
     配慮がなされている。
     
     
     
     
      
    ■ HD-SDI(High Definition - Serial Digital Interface)ケーブル (2008.06.19記)(2009.04.01追記)
     BNC同軸ケーブルを使った映像伝送はとても扱いがよいので、放送局では映像・音声転送の標準ケーブルとして使われてきました。BNCコネクタは、着脱が容易であるのに加えて確実な結合ができ、しかも周波数特性が良かったので、この分野で大いに普及しました。この同軸ケーブルとコネクタが一般的になってしまったため、ハイビジョンデジタル放送を始めるにあたっても、この長所を生かしたケーブルとコネクタが残されて、デジタル信号が規格化されました。HD-SDIは、1994年に規格化されたデジタル信号で、テレビ放送業界にあっては新しい規格です。
     HD-SDIの詳細は、HD-SDI規格に譲ります。説明の流れから行くと、ハイビジョンデジタル信号は、ここで説明している規格よりももっと後に取り決められたものなので、この項ではBNCコネクタがデジタルの時代になっても引き継がれて使われたことを述べるにとどめます。
     古い規格のアナログ映像信号(NTSC)用ケーブルが、ハイビジョンケーブルに使えるかというと、もちろんそれは違います。コネクタは同じ形状のものを使っていますが(細かく言うと、結合の信頼性などで改善されている)、同軸ケーブルの径や材質が異なります。また、BNCプラグにおいてもグレードの違いにより使用帯域が異なります。ハイビジョンが扱っている1.485Gbpsの信号情報は、とても高い映像周波数なので、旧来のアナログ信号用の同軸ケーブル(3C-2Vケーブル = 75Ω同軸ケーブルの一般的な規格)では信号の減衰が大きく、長距離に渡る(100m程度)伝送が難しくなります。
     

     

     
     
     
     
    ■ 不平衡ケーブル(unbalanced cable)と平衡ケーブル(balanced cable)  (2009.02.23)(2009.04.14追記)
     信号を送るケーブルを扱っていると、不平衡ケーブルとか平衡ケーブルという名前をよく聞きます。映像信号などには、同軸ケーブルを使った不平衡ケーブルが多く、イーサネットケーブルなどには、1対(2本)の撚り線による平衡ケーブルが使われています。こうしたケーブルは、どのような特徴があるのでしょうか。
     単に電気を導体に流すだけであれば、電気抵抗の少ない素材のものを使えば問題ありません。しかし、微弱な信号を扱う場合や、周波数の高い電気信号を長い距離に渡って伝送するときには、信号の減衰が激しくなったり、外部からのノイズ混入によって正しい信号が送れなくなる不具合がでます。こうした不具合を解決するために作られたものが、平衡ケーブルや、不平衡ケーブルです。
     平衡ケーブルとは、以下の図に示すように二本の信号線にそれぞれ位相の反転した信号を送るケーブルです。双方に対称的な信号が乗っているので平衡(balance)信号と言います。デジタル信号の時代になると、平衡信号は、差動信号(Differential Signaling)と呼ばれるようになります。
     不平衡ケーブルは、一方の信号線にのみ信号を乗せ、もう一方はグランドラインとするものです。同軸ケーブルは、信号を送る中心の導体の回りをシールド性の高い導体で覆った構造のもので、長距離での高周波通信(〜20GHz)目的に開発されました。
     両者は、歴史的に見ると、同軸ケーブルが高い周波数の微弱な信号を長い距離に渡って送信する目的用途に(内部と外部の電磁ノイズ対策用に)使われているのに対し、音声信号などの電話回線の長距離伝送には(周波数が比較的低くて信号電圧が高い用途には)平衡ケーブルが使われました。
    現在では、双方ともGHz帯域で利用されていますが、長距離転送には同軸ケーブルを使うことが多いようです。同軸ケーブルは高価なので、短い距離での周波数の高いデータ転送には平衡ケーブルが使われます。イーサネットケーブルにおいても、初期の同軸ケーブルの時代からツイストペアの平衡ケーブルになったのは、同軸ケーブルを使ったのでは設備費が高くついたからだと言われています。イーサネットは、ハブやルータが安価に供給できるようになったので、短いケーブルを使っても中継できるようになり、安価なツイストペアによる平衡ケーブルが主流となりました。

     

     
     
    ▲ 同軸ケーブル
     一般的な同軸ケーブルは、右写真に示すような極細の導線を網状に編んだ編組線( = へんそせん)を外部導体として、中心に銅線(内部導体)を配置し、その間を誘導体(ポリエチレンが一般的)が取り巻く形となっています。これは、BNCケーブルによく見られるタイプです。ケーブルが同心(同軸)状に作られているので、同軸ケーブルと呼ばれています。
     外部導体に高価な編組線が使われているのは、ケーブルの可撓性(かとうせい = 曲がりやすい性質)を良くして、取り回しが楽なように配慮されているためです。反面、編状のシールド線は周波数伝達があまりよくありません。本来ならば、銅管などのようなパイプを外部導体としたいところです。
     同軸ケーブルの特徴は、高周波信号を長い距離に渡って送受信する目的に開発されたため、周波数伝達が良くて電磁ノイズを外部に漏らさず、また、外部から進入する電磁ノイズにも強いことです。外部導体がBNCコネクタの外側メタルと接触しているため、中心の内部導体が信号ラインで、回りの外部導体がグランドラインになっていることがわかります。信号は片側だけに乗るので、信号的にバランスの取れていない不平衡ケーブルとなります。  
    写真提供: Miikka Raninen氏
    Hardlineと呼ばれる同軸ケーブル。
    外部導体の口径は、φ46.5mm。
    内部導体口径は、φ17.27mm。
    曲げは、最小1m。重さは1m当たり1.6kg。
    放送局用、マイクロウェーブ回線のkWクラスの高出力用途に使われている。
    【同軸ケーブルの歴史】
     同軸ケーブルを使った電気信号伝送方式の考え方は、電信・電話事業やテレビ伝送とともに発展してきました。電信事業が、鉄道敷設の発展とともに1830年代から始まったとき、芯線(信号線)は裸線で、これを碍子で電信柱に固定していました。絶縁は、空気でした。グランドは、地中を使っていました。
     1850年代、海底ケーブルを敷設するにあたって、芯線を海水から絶縁する必要があり、絶縁技術が進みました。当時使われていたゴムは、長期間海水にさらされると絶縁が破壊してしまうため、これを海底ケーブルに使うことはできませんでした。1840年当時、イギリス人の軍医モンゴメリー(W. Montgomerie)がマレー半島に赴任しているときに、ガタパーチャ(Gutta-percha)という樹脂を発見し、これを、ファラデーが電気絶縁材料として有効であることを認めました。ガタパーチャは、熱可塑性を持ったゴムの一種で、常温で凝固するという加工性に優れた特性をもっていたので、外科用器具として注目されました。その樹脂が、海水に対して経年変化が極めて少ないこともわかり、海底ケーブルとして使われるようになりました。(この樹液は、ドイツのジーメンスも注目していて、ケーブルの被覆用としていち早く事業化にこぎ着け、イギリスが進める海底ケーブルの敷設にも協力し、巨大企業に成長しました。)
     ガタパーチャは、第二次世界大戦後、石油化学の進歩によって開発されたポリエチレン(イギリスICI社開発)に置き換わるまで、100年以上もの間、海底ケーブルの絶縁材として重用されました。当時、イギリスでは、ガタパーチャの輸入を一手に引き受ける利権を得ていて、独自の製法によって絶縁電線の製造を請け負った独占企業のガタパーチャ社(The Gutta Percha Co.)があったそうです。海底ケーブル通信事業は、イギリスが非常に進んでいました。
     信号を送るこうした伝送方式も、モールス信号ぐらいの周波数では、裸線を木製の柱に取り付けて使っていても問題はそれほど顕在化しません。しかし、通信周波数が上がってくると、反射波の影響や長距離伝送における減衰が激しくなります。周波数の高い信号帯域において良好な伝達ができるケーブルが望まれ、同軸ケーブルの登場となりました。
     
    【同軸ケーブルの原理】
     同軸ケーブルの本質的な構造は、中心を走る内部導体とその回りを覆う外部導体からなり、その間を絶縁の高い空気で満たすというものです。
    同軸ケーブルの初期のものは、外部導体にバネのような螺旋線を使って、その中に内部導体を通して麻糸や絹糸で懸架していました。右上写真に示した同軸ケーブルは、同軸管(導波管とは違います)とも言うべき様相を呈しています。
    この構造を見る限り、同軸ケーブルというのは、内部導体と外部導体の関係(相互の口径と絶縁体)が厳しく取り沙汰されているのがわかります。絶縁体として、空気が最良であることもこの写真からわかります(実際のケーブルは、材質の酸化を防ぐために乾燥窒素でパージされています。)
    また、内部導体が中空になっていることから、高周波は、導体の表面を伝わることが理解できます。中空にするのは、軽量化を図ることにも一役かっています。
    このケーブルの内部導体も、外部導体も、蛇腹構造になっているのは興味あるところです。この構造は、可撓性(曲げ)と強度を持たせるためだと解釈します。両者の導体を支えるために、ナイロンでできたスペーサが螺旋状に組み込まれています。
     同軸ケーブルの構造を見ていると、単に電流を流すという目的で作られているのではなくて、電磁波成分を伴った信号伝播を十分に考慮していることがはっきりと見て取れます。こうした構造を採らないと、電磁波を伴った信号成分(高周波信号)はうまく進まないのだと言うことも教えてくれています。同軸ケーブルは、電磁波を送る伝送路であることを、これらの構造から十分に認識しておくべきでしょう。
     

     

     一般の電気信号では、電磁波をあまり意識することはありません。しかし、信号が1MHzから数GHzになると、信号がうまく伝送できなかったり、ノイズが混入して正しい信号が伝達できなくなります。
    シールドを施していないと、導体がアンテナのようになって、内部の信号が外に飛び出したり、外部の電磁ノイズを拾ってしまうのです。
    同軸ケーブルは、周波数の高い信号を送る目的で作られました。
    周波数の高い電気信号の伝送では、上図のようなモデルを考慮する必要があります。信号の回りに発生する電場と磁場をうまく処理しないと、空中に飛び出して他の機器に影響を与えます。同軸ケーブルには、こうした信号に対するシールド効果があり、外部にノイズを出さない働きを持ちます。同様に、周波数の高い信号に対しても一定の抵抗(インピーダンス)で進む環境を作り、スムーズに高周波データを伝送することができるようになっています。
     
     
    【インピーダンス】
     高い周波数の信号をケーブルで送る場合、ケーブルには以下の抵抗成分を持ちます。
     
    XL = 2πf x L
    XC = 1/(2πf x C)   ・・・(Rec-35)
    XL : 誘導性リアクタンス(Ω)
    XC : 容量性リアクタンス(Ω)
    f: 信号周波数(Hz)
    π: 円周率( = 3.14159)
    L: ケーブル誘導成分(インダクタンス)
    C: ケーブル容量成分(キャパシタンス)
     
    右図に示した同軸ケーブルのモデルの「C成分」は、内部導体と外部導体の間に入っているポリエチレンの誘電体の容量成分です。
    これは、直流成分の場合、f= 0 なので Xc = ∞となり、問題となりません。
    また、内部導体の「L成分」も直流ではf = 0 となるので、抵抗成分(XL)も0となります。
    しかし、周波数成分を持つ信号が流れますと、双方はインピーダンス成分を持つようになり、周波数が大きくなるとL成分による抵抗は大きくなり、C成分による抵抗は小さくなります。両者の比は、1MHz以上の周波数やケーブルの長さに依存せずに一定となります。
    このことから、高周波成分のインピーダンスは、
     
    Zo = √(L / C)   ・・・(Rec-36)
    Zo: 特性インピーダンス(Ω)
    L: ケーブル誘導成分(インダクタンス)
    C: ケーブル容量成分(キャパシタンス)
     
    で表され、これが50Ωや75Ωで言い表される同軸ケーブルの特性インピーダンスとなります。
    「L」も「C」も、直流成分では意味をなさないものですから、交流成分に対して成立するインピーダンスであることがこの式からわかります。
     
     同軸ケーブルは、イギリスのICIという化学会社が、絶縁体素材であるポリエチレンを発明(1933年)するまでは、空気を介した同軸ケーブルを使っていて、その特性が75Ωでした。それを、電気的特性の良いポリエチレンに置き換えて、同じ径で同軸ケーブルを作った所、50Ωの特性になったそうです。現在では、絶縁材にポリエチレンを使うのが一般的で、75Ωもしくは50Ωの特性が出るように、内部導体と外部導体の口径比を正しく取り決めています。ポリエチレンも発泡性のものを使って空気の占める割合を大きくして、同じ電気特性で口径を小さくしたものもあります。
     
    【3C-2Vと呼ばれる同軸ケーブル】
     実際の同軸ケーブルでは、伝送する距離と周波数帯域によって、推奨できるケーブルのタイプが決められています。
    我々がアナログ映像信号を送る目的に使う20m長程度のケーブルには、3C-2Vと呼ばれる規格のものを使っています。
    3C-2Vというケーブルは、以下の規格で作られています。
     
    3C-2V の意味
    3: 絶縁部(ポリエチレン)径が3mm。他に、4mm径の「4」、5mm径の「5」や、「7」、「10」などがある。
    C: インピーダンスが75Ω。他に50Ωの「D」などがある。
    2: 絶縁方式としてポリエチレンを使用
    V: 外部導体が1重の編組でPVC被覆
     
    同軸ケーブルは、同じ75Ωのインピーダンス特性でも太いほど周波数特性が良いので、長距離伝送や高い周波数を送るときには、5C-2Vや10C-2Vなどの太い同軸ケーブルを使います。
    太いケーブルは、性能がよいものの、高価であったり取り回しが大変なので、目的に応じて使い分け、通常の室内でビデオ機器などを接続するには3C-2Vを使います。
    3C-2Vと10C-2Vの特性は、以下のようになっています。
     
    項  目
    3C-2V
    10C-2V
    1MHzの減衰量基準値:
    12 dB/km
    4.8 dB/km
    10MHzの減衰量基準値:
    40 dB/km
    16 dB/km
    30MHzの減衰量基準値:
    70 dB/km
    29 dB/km
    200MHzの減衰量基準値:
    195 dB/km
    80 dB/km
    4,000MHzの減衰量基準値:
    -
    540 dB/km
    試験電圧:
    1 kV eff.
    3 kV eff.
    内部導体径:
    φ0.5 mm
    φ1.5 mm
    PE(ポリエチレン)絶縁外径:
    φ3.1mm
    φ9.4 mm
    被覆材質:
    PVC(塩化ビニール)
    t0.9 mm
    PVC(塩化ビニール)
    t1.4 mm
    仕上がり外径:
    φ5.6 mm
    φ13.2 mm
    重量:
    50 g/m
    230 g/m
    特性インピーダンス:
    75Ω
    75Ω

    同軸ケーブル(3C-2Vと10C-2V)の特性表 

     
    上の値は、3C-2Vケーブルでは、1kmの距離を信号伝送するのに1MHzの周波数では1/4程度に減衰し、10MHzでは1/100に、30MHzでは1/3,160まで減衰することを示しています。同軸ケーブルといえども、1kmまでケーブルを延ばすと周波数の高い信号ほど減衰が激しくなることをこの表は示しています。
     
     
    【1ナノ秒で信号が20cm進む同軸ケーブル】
     電気信号は、導線中をどのくらいの速度で進むのでしょうか。電子の動きそのものは非常に遅く、カタツムリ程度の移動と言われています。しかし電子は、電磁波を仲立ちとして電気信号を光速で伝達させるので、導線中は光速( = 電磁波の伝わる速度)で信号が伝わり、先々にある電子が電磁波に反応します。導線中では電子がいっぱい詰まっていますから、玉突きのように電子が互いにエネルギーを伝達しあって電気が流れる( = エネルギーが伝わる)ようになります。従って、結論を言えば、導線中に流れる電気エネルギーの速度は光速に近く、電子そのものの移動は遅いということが言えます。水の流れは遅いけれど、波は速く伝播するというイメージで良いかと思います。
     同軸ケーブルの場合の電気の流れは、一般の導線とは趣がことなります。高周波信号は、一般の導線ではノイズを外にまき散らしたり、減衰が激しいので、同軸ケーブルでは、これらの対策を優先しています。同軸ケーブルは、従って、導線中の電磁波の伝播を優先的に考えなければならないケーブルとなります。
     同軸ケーブルを伝わる電気信号は、顕著な電磁波を伴うため、信号伝達は基本的に光速となり、構造上、内部導体の表皮と外部導体の表皮を電磁波が伝播します。この場合、両導体に介在する誘電体の種類によって(誘電率が真空と異なるので)、電磁波の伝播する速度が遅くなります。一般の同軸ケーブルは、誘電体にポリエチレンが使われているので、その材質から「波長短縮率」が求まります。ポリエチレンの場合、67%となるので、同軸ケーブル内では、光速の67%で信号が進みます。光速は、1秒間に30万km(1ナノ秒で30cm)進みますので、この光速の67%、すなわち1ナノ秒で20cmの距離を進むことになります。この速度は、同軸ケーブル内での話であり、BNCコネクタ部のカプリングは、この限りではありません。高級なBNCコネクタは、2GHz帯域までこの波長短縮率を満足するように十分な設計と製造が施されていますが、安価なBNCコネクタでは低い帯域しか性能を満足しないので、カプリング部で位相が変わり速度が落ちます。
     いずれにせよ、同軸ケーブルを使う場合は、ケーブルの長さに応じて信号の遅延を割り出すことができます。遅延装置が高かった時代、同軸ケーブルを使った遅延線というものを利用していました。
    この原理から、BNCケーブルでは、1m長で5ナノ秒、10m長で50ナノ秒、100m長で0.5マイクロ秒の信号遅延を持つことがわかります。
     
     
    ▲ 平衡ケーブル(balanced cable) (2009.04.01追記)
     ビデオ信号ケーブルに使われている同軸ケーブルが不平衡ケーブルの代表的なものであるなら、イーサネットケーブルLVDSRS-422(EIA-422)は、平衡ケーブルの代表的なものです。平衡ケーブルは、1対の信号線に相補する(位相の反転した)信号( = 差動信号)を乗せています。例えば、一方の信号線が正極の信号であればもう一方は負極の信号になっています。この方式は、外部からノイズが入ってもノイズを簡単にキャンセルできるので、信号成分が安定します。この手法は、電話機の送受信の手法として発達しました。近年のデータ通信の方式を見てみますと、高周波での長距離通信では同軸ケーブルが使われ、短い距離と低周波信号では平衡ケーブルが使われる傾向があります。
     
    ■ フィーダー線(ladder line)
     平衡ケーブルは、初期のテレビアンテナの給電線(フィーダー線)として300Ωのものが使われていましたが、同軸ケーブルの方が性能が安定しているので、最近ではフィーダー線に代わり同軸ケーブルが主流になっています。当時、アンテナ線やテレビ信号線に300Ωのフィーダ線(給電線)が使われたのは、安価であったからです。しかし、300Ωフィーダー線は、使っている間に特性がどんどん崩れたり、50m程度以上引き回す場合には、設置に細心の注意を払わないと特性がでないという問題がありました。十分な注意を払った設定では、その特性は同軸ケーブルよりも優れています。しかし、現実には、多くの場合、そうした結果にならない(金属を近づけると特性が崩れる、湿気が結露して水分がつくと特性が崩れる、オートバイからの電磁ノイズを拾いやすい)ことが多いので、近年では同軸ケーブルによる敷設が主流になっています。フィーダ線は、アンテナから直接接続することできますが、同軸ケーブルは外側がグランドになっているためアンテナから直接同軸ケーブルに接続することはできません。この場合は、平衡 / 不平衡変換器(balun = バラン、balance / unbalanceの略)を用いて、不平衡ケーブル(同軸ケーブル)に適応できるようにして信号を送っています。
     
    ■ ツイストペア線(Twisted pair line)
     RS-422や、イーサネット、LVDSなどの平衡ケーブルは、ノイズ対策の一つとして、ペアになったリード線を撚(よ)っています。撚(よ)ることによって、自ら発する電磁ノイズをキャンセルすることができ、また、外部から入るノイズもキャンセルすることができます(下図参照)。ツイストペア線とは反対に、アンテナのフィーダー線は撚り線になっていません。撚ってしまうと、アンテナから受け取った電磁波信号がキャンセルされて伝達速度が理想状態から崩れてしまい、減衰も激しくなるからです。撚り線は、従って、電磁波を伴う微弱信号には都合が良くないことがわかります。ツイストペア線は、電流をしっかりと流す送受信に威力を発揮します。
     平衡ケーブルの欠点は、2本の線の双方に信号成分が乗るので、同軸ケーブルのようにグランド線を共通にすることができないことです。従って、一対の信号ラインは信号線の数だけ必要になります。また、周波数が高くなると、対になっている信号情報が崩れる可能性があり、「平衡度」が悪くなります。このことから、長距離伝送や周波数が高い平衡ケーブルでは、平衡度をうるさく規定しています。
     

     

    ツイストペア(撚り線)による電磁ノイズ除去効果
     
     
     
    ■ シールド処理されたツイストペアケーブル (2009.04.29記)
     ツイストペアケーブルは、基本的にノイズに強い性質を持っていますが、それでも外部からの電磁ノイズが心配される場合に、ケーブル全体をシールド処理したツイストペアケーブルを使うことがあります。
    シールド処理を施したものは、していないものに比べて若干の信号の減衰があります。そして高価です。
    従って、工場内の電磁ノイズの多い場所での利用に有効です。
    しかし、そうでない所では、あえてシールド処理のケーブルを使わない方が安価であり性能も上がると考えます。
    シールド処理は、ケーブルを含め、コネクタや接続装置全体をシールド処理しなければならないので、設置が大がかりになります。
    イーサネットケーブルでは、シールド処理をしているケーブル(STP)とシールド処理をしていないケーブル(UTP)の2種類ありますが、日本では、扱い易さの観点から、UTPが圧倒的に多く使われています(2種類のツィストペアケーブル参照)。
    シールド処理は、装置全体を考えないと逆効果になることを知っておくべきでしょう。
     
     
    ■ 光ケーブル(Optical Fiber Cable) (2009.04.16記)
     データ通信で1980年代から主流になってきたものに、光ファイバーがあります。
    光は電子と相性がよいものの、相互に干渉しないので、光通信は電磁ノイズに左右されず、しかも光速で通信できるという特徴を持っています。
    1960年後半、レーザの発明と光ファイバーの発想によって、光によるデータ通信が着実に発展してきました。
    2009年時点においては、長距離データ転送(海底ケーブル、主電話回線網)はすべて光ファイバーケーブルに置き換わっています。
    我々の身の回りでの光ケーブルは、インターネット回線に使うLANや、オーディオの出力にもこれら光ファイバーが使われています。
     光ファイバーの原理については、「光と光の記録 - レンズ編 ■光ファイバー」を参照下さい。
     
    レーザファイバーでは、ファイバーのコア部に、エルビウム(Er、Erbium)やネオジム(Nd、Neodymium)、イッテルビウム(Yb、Ytterbium)などの3準位の元素がドーピングされていて、900nmの励起光によって反転分布が作られます。
    ここに、信号光(1.55um)が入ると次々と増幅が行われて、強い信号光を取り出すことができます。
     
    ■ ファイバーレーザ(Fiber Optic Laser)
     ファイバーレーザは、ファイバー自体に自己増幅機能をもったレーザで、長距離通信用として発明されました。
    実用的なファイバーレーザは、1985年、英国サウサンプトン大学(Southampton University)のSimon Pooleらによって、低損失の単一希土類添加光ファイバーが開発されてから、ファイバーレーザの開発が本格的に始まり、1987年、同大学の Robert Mearsらによって、希土類添加(Erbium-doped)光ファイバーのレーザ作用を利用した、1.55um帯光増幅器が開発されました。
    この光ファイバーは、従来の光ファイバーと異なり、ファイバー内で光増幅が行えるため、長距離転送に必要な光を増幅する中継ボックスを少なくするというメリットがありました。このファイバーは、1995年、トランスアトランティック電話会社(Trans-Atlantic Telephone, TAT)の海底ケーブルに使われ、米国と英国、フランスを結びました。このケーブルは、総延長が14,000kmに及び、ファイバーの中継を45kmとすることができ、5Gb/sの伝送速度を持っていました。ファイバーレーザは、小型で低消費電力、そしてビームクォリティが高いので通信用目的の他に高温加工分野で注目され、レーザ溶接機の熱源として使われています。
    詳細は、「光と光の記録 - レーザ編 ■ファイバーレーザ」を参照下さい。
     
     
     

     
     
     
     
    ■ データインタフェース 
     この項目では、データ通信の規格について触れます。データ通信を規格化することにより、通信機器の互換性が高まり、たくさんの通信機器と簡単に接続できるようになります。
    データインタフェースは、高速、大容量化の歴史でもあります。
    右図に代表的なデータ通信手法と転送速度の歴史的推移を示します。パソコン(IBM-PC)ができたのが1981年ですから右図を見てみますと、パソコンができる以前からRS-232CやGP-IB、イーサネットがあったことがわかります。
     
    【パラレル通信、シリアル通信】
     通信方式は、大きく分けてたくさんのデータ線を平行に配置して一度にたくさん送るパラレル方式と、1本のデータ線でシリーズに送るシリアル方式の二つに分かれます。
    パラレル方式は、高速に対応できる反面、ケーブル長に限界があります。
    また、シリアル方式は、ケーブル長が長くできる反面、転送速度が上がらないという傾向がありました。
     
    しかし、近年では、イーサネットなどのシリアル転送でもSCSIのパラレル転送なみの速度を持つものがあり、一概に傾向を論ずることができなくなりました。
    パラレル転送は、8人9脚のような転送なので、足並みが揃わないと転んでしまう(データ欠損が起きる)問題があります。
    そうであるならば、走りやすい走路を確保して(ツイストペア線による平衡信号にして)高速でデータを送った方が、結果的には大量のデータを送ることができるのです。
     
    以下、データインタフェースの歴史的な流れを見てみることにします。
     
      
    【RS232C】(シリアル通信)
     パソコンに備わっている通信ポート群をよく見ると、COM(もしくは、|O|O|)と書かれた9ピン(もしくは15ピン)の端子がついているのがわかります。COMというのは、Communication(通信)の略で、通信ポートの意味です。このCOMポートが、実はRS232Cという通信ポートなのです。RS232Cは、電話回線を使った通信(モデム通信)を前提にして、1969年に作られた(40年も前です!)インタフェース規格です。「C」バージョンの原型であるRS232は、1962年にできています。1962年当時は、IBMの大型コンピュータがトランジスタ素子を採用してやっと軌道に乗った時代でした。また、この時期は、デジタル素子であるTTL(Transistor-Transistor Logic)が米国テキサスインスツルメンツ社から市販化されはじめた時期です。
     1980年代にパソコンができてから、イーサネットが標準装備されるまでの15年間は、このRS232Cがパソコン通信の代表的な通信手段でした。音響カプラーと呼ばれる装置(電話の受話器にお椀のようなものを取り付けて、FAXを送る際のコール/アンサー信号のような音源でデジタル通信を行った装置)もこのRS232C規格を採用していました。
     この通信手段は、名前からもわかるように、米国EIA(Electronic Industries Association: 米国電子工業会)が制定したもので、データ端末装置(DTE: Data Terminal Equipment)と回線終端装置(DCE: Data Circuit terminating Equipment)の両者について、機械的・電気的な仕様を定めたものです。信号は、±10V(ドライバやレシーバ回路電源は±12V)程度で、規格上の伝送速度は、20Kb/s以下となっていました。通信速度を示す9600ボー(baud、bit per second = bps、ビット/秒)が有名な数値と単位です。通信設定の際にちょくちょく目にした9600という数値は、RS232の規格上の半分の速度設定だったことがわかります。データは、不平衡信号であるためグランド線とデータ線で構成されていて、現在の主流である差動信号ではありません。差動信号は、その後のRS422で採用されました。RS232Cは、従ってノイズに対して弱く、データ転送の負荷容量CLが2500pF以下だったため、ケーブル長さは十数メートルに制限されていました。それ以上に長くすると、通信エラーが起きて性能を満足できなくなりました。ただし、コンピュータ同士のインタフェースとして使用する場合には、一般公衆回線よりも雑音が少ないので、もっと高速、あるいはもっと長いケーブルを使用しているケースもありました。
     現在(2009年)でも、COMポートはパソコンに標準で装備されています。淘汰の激しいパソコンのインタフェースの中にあって、40年も採用され続けているのは驚きです。この規格は、簡単なリモート制御を行うにはシンプルでとても安定しているので、ちょっとした機器の接続に今でも使われています。しかし、画像を送ったりインターネットを見る目的には速度が遅すぎるため適合せず使われていません。
     
    【RS-422】(シリアル通信)
    RS-422(EIA-422、TIA-422)は、RS232Cの改良版で、通信速度と通信距離を大幅に改善させたものです。RS232Cと互換性が強いので、長距離転送をRS422で行って、機器側でRS232Cに変換して使うことがありました。
     RS-422の大きな特徴は、信号に差動信号(Differential Signaling)を採用したことです。これにより、耐ノイズ性能が向上し、長距離高速データ通信できるようになりました。アップル社のマッキントッシュでは、初期のモデル(Macintosh 128k、1984年)からmini-DIN8コネクタによるRS422規格を採用し、これにマウスやキーボード、専用のプリンタを接続していました。しかし、これも1998年に発売されたiMacでは、USBを採用したために、mini-Din8によるRS422ポートはなくなりました。
     RS422は、伝送距離が400ft(1.2km)と長く、10Mbit/sのデータを送ることができました。RS-232Cが50ft(15m)で20kbit/sなので、距離にして80倍、伝送速度において500倍の性能を持っていたことになります。
      
    項  目
    RS232
    RS422
    RS423
    RS485
    操作モード
    シングルエンド
    差動
    シングルエンド
    差動
    ドライバ: レシーバの接続数
    1:1
    1:10
    32:32
    最大ケーブル長
    50 ft
    (15.2 m)
    4,000 ft
    (1,220 m)
    最大データ転送
    20k bps
    100k〜10M bps
    100k bps
    100k〜10M bps
    最大データ出力電圧
    +/- 25V
    -0.25V〜+6.0V
    +/- 6.0V
    -7V〜+12V
    出力インピーダンス
    3k〜7k Ω
    100 Ω
    450 Ω以下
    54 Ω
    入力インピーダンス
    3k〜7k Ω
    最小 4k Ω
    最小 4k Ω
    12k Ω以下

     

     
     
    【セントロニクス(Centronics)】(パラレル通信)
     この規格は、1970年、米国Centronics Data Computer社が自社製品のプリンタに装備したインタフェースです。大型のD-subコネクタを使ったプリンタポートです。開発当時、同社がワイア・ドット・プリンタで大きなシェアを占めていたため、プリンタインタフェースの事実上の標準となりました。この規格は、後にIEEE1284として標準化されました。パソコンが普及するはるか以前から構築された通信規格です。
     最初の規格では、Centronics社でプリンタ用に大量に余っていたアンフェノール社のD-Sub 36ピンのコネクタを使っていましたが、IBM社がIBM-PCにプリンタポートで採用したコネクタは、D-Sub 25ピンでした。従って、初期のセントロニクスケーブルは、36ピン - 25ピンのケーブルが必要でした。双方が25ピンのコネクタを使ったケーブルを使用し出したのは、プリンタメーカのHP(ヒューレット・パッカード)社です。1992年にHP社から発売されたLaser Jet 4 には25ピンのポートが採用され、これよりセントロニクスケーブルはより使い勝手の良いものになりました。この規格は、2年後の1994年にIEEEで採択されてIEEE1284規格となりました。
    この規格は、プリンタポートとして大きな普及を見て、2004年までのパソコンには大抵装備されていました。しかし、最近のパソコンには装備されなくなりました。セントロニクス装備のプリンタがなくなり、プリンタ接続は、USB2.0やイーサネット、あるいは無線のBluetoothに切り替わって来たので装備する意味がなくなったからです。
     このプリンタポートは、プリンタ機器の接続という本来の目的の他に、ソフトウェアのプロテクトキー(ドングルキー)を挿入するポートとして使われて来ました。しかし、それもUSBキーにとって替わられています。
     セントロニクスは、非同期式の8ビット・パラレル転送方式をとっていました。8本の信号線を使って各線1ビット、合計8ビットの信号を500k バイト/秒程度でデータ転送を行っていました。信号は不平衡信号でした。従ってグランドは共通にすることができます。パラレルなのでシリアルのRS232Cより25倍も高速に転送できました。しかし、パラレル転送は、クロストーク(混信)の問題があり、ケーブル長をあまり長くとることができませんでした。これは、パラレル転送の宿命とも言えるべきものです。
    25ピンのセントロニクスの主な信号とピンアサイン及び機能を紹介します。
     
    * ピン1:STROBE:パソコンがデータを送信したことをプリンタに伝える同期信号。
    * ピン2-9:DATA1-DATA8:8ビットのデータ信号。
       ---------------------------------
    * ピン10:ACKNLG:プリンタがデータを受信したことをホストに伝える同期信号。
    * ピン11:BUSY:プリンタが次のデータを受信できないことを示す信号。
    * ピン12:PE:プリンタ用紙の終わりを知らせる信号。
    * ピン13:SEL:プリンタの選択信号。
    * ピン14:LF:プリンタの行換え信号。
    * ピン15:ERROR:プリンタのエラー信号。
       ---------------------------------
    * ピン16:PRIME:コンピュータの初期化信号。
    * ピン17:SEL:コンピュータの選択信号。
       ---------------------------------
    * ピン18 - 25:GND:8本のグランド信号線。
     
     
     
    【GP-IB(General Purpose Interface Bus】(パラレル通信) (2006.09.03)(2009.08.18追記)
     計測器メーカで有名な米国ヒューレット・パッカード(HP)社(現Agilent Technologies社、HP社より分離独立)が、1960年代に開発し規格化したデータ転送規格です。当時のHP社は、温度センサーやプロッタなど優れた計測装置を設計、製造していたメーカで、こうした計測装置を有機的に結びつける必要上、機能的に優れた使い勝手の良いデータ転送方式を編み出しました。HP社では、これをHP-IB(Hewlett-Packard Interface Bus)と呼んでいましたが、他のメーカがこのバスを使用するようになって、General Purpose Interface Bus(GP-IB)として知られるようになりました。このバスは、1978年にIEEEが取り上げて、IEEE-488として規格化されました。
    ■ パラレル信号ライン
     当時、GP-IBの斬新だった所は、8本の信号線にビットをあてて8ビットとし、他に8本の制御信号線を設けてデータの入出力をコントロールしたことです。GP-IBでは16本の信号線と8本のグランド線の合計24本(24ピン)で構成されています。データ線は8ビットのため8本(DIO1〜DIO8)あり、グランド線は共通で1本が配置されていました。制御線は、3本のハンドシェークバス(DAV、NRFD、NDAC)と5本の管理バス(ATN、REN、IFC、SRQ、EOI)の合計8本からなっていて、RENとEOIを除いた6本はすべて個々にグランド線があてがわれてペアとなっていました。RENとEOIはデータ線と共通のグランド線となっていました。24ピンのうちの1つはシールド線に結線されていました。信号は不平衡信号です。
    ■ アドレス指定
     GP-IBを接続する装置には、アドレスが機械的に割り当てられていて(DIPスイッチと呼ばれる小さいON-OFFスイッチで装置番号を設定した)、アドレスを設定した相手にデータを確実に送ることができるようにしていました。従って、GP-IBでデータ送信する機器(トーカ)にはデータ列の前にどの機器に送るかを宣言する方式になっていました。リスナGP-IBでは、ケーブルを数珠つなぎ(デイジーチェイン)にしても、並列接続をしても、中継ボックス(Hubなど)を介さずに接続することができました。ただ、ケーブル長さは、すべての合計が20m以内でなければならず、接続する機器も合計で15ヶ以内という決まりがありました。(機械番号を認識するDIPスイッチが4つだったので、16個の装置までしか認識できませんでした。)ケーブル自体は、あまり長くなく1〜2mが多かったような記憶があります。そして太いケーブルでした。
    ■ 転送速度
     この規格でどのくらいの速度でデータが送れたかと言うと、1MHzのクロックで8ビットのパラレル信号が送れるので、理論的には最大1Mバイト/秒となります。この通信速度は、温度や圧力などのデータを送るのにはそれほど不便は感じないものの、画像転送に使うとなると非力になるのは否めません。例えば、512x512画素8ビットの白黒画像を送るとすると、1/4秒での送信が計算上可能です。実際の所、1990年代始めに行った我々の実験では、GP-IBの転送手順と同期の関係から30秒〜1分程度かかっていました。理論よりも100倍から200倍も時間がかかっています。当時は、GP-IB以外に信頼できる高速通信可能な手段がなかったので、こうした通信手段で画像を送っていました。しかし、これではあまりにも時間がかかるので、1990年代中頃には、SCSIによる画像通信が一般的になりました。これも、2000年を境にして次第に使われなくなりました。
     

      

    GP-IBケーブル。長さは70cm程度と短いものが多かった。ケーブルは8本のパラレルデータ線なので太い。
    コネクタは、重ねて接続できるようにメスとオスが双方にもうけられていた。
    下の図は接続例。重ね接続でも芋づる接続でも接続可能であった。
    接続機器にはすべてアドレス(4ビット)が割り振られ、アドレスにそって
    データの送受信が行われた。

     

     
     
     
     
     
    【歴史的なデータ転送規格】
     データ転送の規格は、コンピュータの発展とともに進化してきました。
    多くのものは、メーカが独自に開発してそれが時流の勢いに乗って標準化されて行き、さらに、より進化した通信規格が開発されると前のものが淘汰されていくという進化の過程を経ています。こうした流れは、お互いをけん制しあいながらも影響を及ぼしあってきました。以下その規格を列挙します。
     
    ・DMA(Direct Memory Access)転送(パラレル通信)
    DMAは、データの転送をCPUを介さずに直接転送する方式です。CPUのクロックが数MHzと低かった時代、CPUのクロックに乗せてRAMメモリのデータをハードディスクに書き込んでいたのでは時間がかかりすぎるので、データ転送は専用のプロセッサに任せて行う方法が取られました。これがDMA転送です。この手法は、現在も形を変えてパソコン内部のデータ転送に生きています。
    ・VME(Versa Module Eurocard)バス転送(パラレル通信)
     VMEバスは、米国モトローラ社が1981年に自社のCPU68000用のデータ転送用に開発したバスで、Versa Module Eurocardの略から来ています。回路基板にユーロカード規格を採用したので、使い勝手の良さから広く使われるようになり、米国の規格IEEE1014-1987として登録されました。
     初期のものは、16ビットバスでユーロカードDINコネクタをスロットに採用していました。現在では、64ビット対応になり、カードも6Uサイズになっています。
    ・SCSI(Small Computer System Interface)転送(パラレル通信) (2009.08.18追記)
    SCSIコネクタ。
    この他に数種類のコネクタがあり、接続に注意が必要であった。
     SCSI(すかじー)は、1979年に米国Shugart社(Seagate Technology社の前身でフロッピーディスクの製造会社)が周辺機器(特にHDD)向けに作成したSASI(Shugart Associates System Interface)をベースとしたものです。これに機能の拡張や追加を行い、1986年米国規格協会(ANSI)がX3.131-1986として標準化パラレルインタフェースとしました。SCSIは、Shugart社でこの規格の開発に従事したLarry Boucherが1986年にAdaptec社を創設して製品の開発につとめ、SCSIの性能向上に努めました。
     SCSIは、イーサネットやUSBが普及するまでの間高速転送の主流でした。2000年までの多くのパソコンは、高速大容量データ転送用としてSCSIインタフェースボードをPCIボードスロットに差し込んで、これにハードディスクドライブやCDドライブ、プリンタなどを接続していました。当時としてはもっとも高速にデータ通信ができるパソコン周辺機器の通信規格でした。現在は(2003年〜)、RAIDなどのミッションクリティカルな高速通信目的以外ほとんど使われていません。その理由は、SCSIより使い勝手が良くて速度の速い通信方式(イーサネット、USB2.0、IEEE1394)が出現したためです。SCSIは、周辺機器を7台まで芋づる式(デイジーチェーン)に接続可能なインタフェースでした。接続の最後には必ず終端処理(ターミネータ)を施しておく必要がありました。
     使用するコネクタのピンは50本で、データ用は9本(うち1本はパリティ)、制御用に9本の信号線を使っています。SCSIバスの電気的条件として、最大ケーブル長6mの非平衡型と最大ケーブル長25mの平衡型(差動型)が規定されています。非平衡型は負論理(LOWでアクティブ)の信号線とグランド線で構成され、その電位差でHIGHとLOWを決めています。一般には、非平衡型が用いられていて差動型との共存は不可能です。従って、SCSIケーブルは6m長が標準でした。SCSIの進化過程を以下に述べます。
     
    1. SCSI-1 : 8ビットパラレル、5Mバイト/秒、1986年
    2. Fast SCSI : 8ビットパラレル、10Mバイト/秒、1994年
    3. Fast Wide SCSI : 16ビットパラレル、20Mバイト/秒、1996年
    4. Ultra2 SCSI : 8ビットパラレル、40Mバイト/秒、1997年
    5. Ultra3 SCSI : 16ビットパラレル、160Mバイト/秒、1999年
    6. Ultra-640 SCSI : 16ビットパラレル、640Mバイト/秒、2003年
     
    SCSIはその後、安価で高性能なIDE SATAの台頭と、使い勝手が良く高性能なUSBの出現で次第に存在価値が絞られてきています。
     
     
    ・IDE(Integrated Drive Electronics)転送 / ATA規格(パラレル通信)  (2009.08.18追記)
     IDEは、SCSI に置き換わるようにして発展してきたもので、ハードディスク(HDD)の高速データ転送を目的にしていました。
    SCSIがハードディスクを初めて開発したシュガート(Shugart)社から作られたのに対し、IDEはライバルのウェスタンデジタル(Western Digital)社とクローンパソコンで台頭した米国Compaq Computer社(現在はHP社に吸収)の共同で開発されたものです。
    SCSIとIDEは、ライバル関係にあったのです。
    しかし当初は、SCSIの方が高速・高性能でした。IDEは安価なことがウリでした。
    IDEの開発は1986年ですから、パソコンが台頭し始めた初期からありました。IDEは、SCSIと比べてデータ転送速度が遅い欠点がありましたが、IDE規格のHDDが安かったため急速に普及していきました。
    SCSIが外部装置との接続ができるようにケーブルやPCIカードを整えたのとは対照的に、IDEはIBM PCATバスにハードディスクを直結するためのインタフェースに終始しています。したがって、IDEケーブルは右写真に見られるように、リボン(フラット)ケーブルになっています。価格を抑えた設計に終始しているのが理解できます。
     IDEが大きな普及を見たことにより技術開発も進んで、2000年を越えたあたりから速度的にもSCSIとほとんど遜色がなくなりパソコン内部のインタフェースバスとして揺るぎない位置を占めるようになりました。2009年にあっても、HDD、DVDを接続する主要のインタフェースバスとして使われています。
     IDEは、ANSI(American National Standards Institute、アメリカ規格協会)によって1988年に規格化されたために、その規格名からATA(Advanced Technology Attachment)と呼ぶこともあります。
     IDEのコネクタは40本の信号線から成り、接地線を除く34本の信号線でデータの転送や制御を行っています。データ転送用には16本の信号線(16ビット)が使われています。グランドラインは16本すべてにあてがわれていないので信号は不平衡信号になります。
    IDEに使われているケーブルは平べったいリボン状のもので、ケーブル長さは最大18インチ(45.7cm)と規定されています。これはケーブルとしてはすごく短いもので、コンピュータ内部でしか使えない長さです。
    ケーブルの形状からわかるようにIDEではツイストペア信号になっていないことがわかります。ケーブル自体もシールドされていません。
     ATA規格では、制定当初は3.3MB/秒の転送速度であったものが、2005年のATA-7規格では133.3MB/秒の転送速度を持つに至っています。
     
    【SATA 及び eSATA】 (シリアル通信)(2010.01.25)(2010.03.17追記)
     SATA(さーたー)は、シリアルATA(Serial Advanced Technology Attachment)と呼ばれるもので、上で述べたSAI通信規格のシリアル転送版です。
    eSATA(いーさーたー)は、SATAの拡張版でextended SATAの略です。
    SATAがコンピュータマザーボード内部で使用されるのに対し、eSATAは、IEEE1394やUSB2.0の接続と同じように外部機器との通信接続に使われます。 これは、主にハードディスクやDVDなどの光学装置接続用として使われています。
    2009年で発売されているPC内部のHDD接続には、ほとんどこのSATA規格のものが使われています。
    シリアルATAは、上で述べたパラレルATA( = IDE)の速度が限界になったため、転送速度と使い勝手を向上させるために2002年にワーキンググループが発足して規格化がなされました。
    主な仕様を以下に示します。
     
    ■ シリアル転送
    新しい規格は、従来のパラレル転送からシリアル転送に変わりました。
    信号ピンは、差動信号の2ペアの4信号(A+、A-、B+、B- = 送信用と受信用)と、グランドピン3線の合計7ピンの配線となりました。
    IDEは、40ピンのリボンケーブルを使っていました。
    下図の右に示すようにケーブルの巾が非常に小さくなり、ケーブル長さも長くなったため配線がすっきりするようになりました。
     
    ■ 転送速度
    転送速度は、当初、150MB/sからスタートしました(SATA150と呼ばれた)。
    2004年のシリアルATA2.0では、倍の300MB/sとなりました(SATA300と呼ばれた)。
    2009年05月のシリアルATA3.0では、そのまた倍の600MB/sとなりました(SATA600)。
    このスピードは、PCIボードの性能を抜き去るものです。
     
     
    ■ 差動信号(LDVS)
    シリアルATAに使われている信号は、LDVSとよばれる差動信号を使っています。
    この信号は、高速通信では一般的になっているものです。
     
    ■ ケーブル長さ
    シリアルATAは、従来のATAよりも2倍以上も長い1mまでのケーブルを使うことができます。
     
    ■ ホットスワップ対応
    電源を入れたままケーブルを抜き差ししても、機器が認識できる機能を装備しました。
    ■ eSATA
    SATAがPC内部のマザーボードと機器の接続であるのに対し、外部機器との接続を規格化したのがeSATAです。
    ケーブルの長さは2mまで可能で、ホットスワップが可能でした。
    コネクタは、SATAと区別するためにこれとは違ったものになっています。(上の右下写真参照。右側がeSATAコネクタ)
    この規格は、USB2.0の5倍の速度を持っています。高速大容量のハードディスクにはこの規格の端子が装備されています。
     
     
    【イーサネット = Ethernet】(シリアル通信) (2006.07.13)(2009.09.11追記)
    イーサネットポート。ツイストペアケーブルを使ったイーサネットは、4対(8本)の通信線で構成されている。
    イーサネットプラグ(8P8Cモジュラージャック)。
    これで1Gbpsの送信が可能!
    ラッチは、取り外しを頻繁に行うと折れやすい。
     インターネットやローカルエリアネットワーク(LAN)の普及とともに、よく知られる通信手段となったものにイーサネット(Ethernet)があります。
    イーサネットは、コンピュータ同士を有機的に結びつける通信手段として急速に発展しました。イーサネットによる通信は、RS232Cと同じように一本の信号線で行われていました。初期のイーサネットは、1本のBNC同軸ケーブルが使われていました。現在はモジュラージャックを使った4対(8本)の信号線になっています。イーサネット接続によるデータ通信は、非常にたくさんの通信機器と合流・相乗りができて、最大10Mビット/秒の転送速度の通信が行えました(10Base)。イーサネットの大きな特徴は、長い距離に渡ってたくさんの機器を機能的に結びつけられることでした。高速通信も1990年代当時としてはとても速いものでした。
     私が10Baseのイーサネットを使って画像通信の実験した1999年当時、640x480画素の画像1枚(BMPフォーマット画像)を20秒程度で転送できました。
     
    640画素 x 480画素 x 8ビット x 3画面 ÷ 20s =  368.64kbps  ・・・(Rec-37)
     
    上の計算が示すように、10Mビット/sの通信ラインで実効値0.4Mビット/sの通信速度をもっていました。これは、公称データの4%の速度にあたります。これが、当時最も早く画像データを転送できる通信手段の一つだったことを覚えています。その後、Ethernetの伝送速度は100Mビット/秒に高速化され、Fast Ethernet = 100BASE-Tに対応した製品が普及しました。この規格を使えば、従来よりも画像転送時間を1/10に短縮することができました。
     2002年頃からは、ギガイーサネットと呼ばれる1000Mビット/秒の通信速度をもつネットワーク通信システムが市場に出回るようになりました。この規格は、100Baseの規格のさらに10倍の転送速度を持っていました。この規格で高速度カメラの画像をダウンロードをしているものに、米国Redlake MASD社のHG-100K(2002年、現IDT社)があります。デジタル画像転送では最も確実な高速転送を行っているものです。
     わたしの家庭のLAN(2004年〜2009年時点)では、デスクトップパソコンとノートパソコンのデータ通信を64Mビット/秒で転送しています(900MBのデータを約110秒で送ることができます)。デスクトップとノートパソコンが1000BASE-Tなので、そこそこの性能が出ているといえます。
    イーサネット通信は、社内LANやインターネットでも使われている非常に安定した信頼性の高い通信手段で、通信距離もHUBを利用すれば距離に関係なくデータを送受信できます。
     イーサネットの問題点は、ネットワーク内にたくさんの情報が入り込んできたときに情報の交通渋滞がおきて目的とする通信速度が達成できなくなることです。これは、イーサネットの成り立ち上、そして送受信の原理から致し方のないものです。使用者は、そうした原理をよく知ってデータの通信を上手に行わなくてはなりません。
     
    ▲ イーサネット開発の歴史
     イーサネットの開発は、1973年に始まります。
    随分と早い時期に着想されて開発されました。パソコン(IBM-PC、1981年)ができる8年以上も前のことです。
    この通信手段は、米国のゼロックス社の研究所、PARC(Xerox Palo Alto Research Center)で考え出されました。
    その中心人物は、ボブ・メトカーフ(Robert Metcalfe:1946.04.07 - 、1979年3Com社設立)でした。
    イーサネットのアイデアの原点は、米国が軍需用にデータ通信を構築していたARPANET(Advanced Research Projects Agency Network、1969年)に始まります。
    ARPANETは、現在のインターネットの母体でもあります。
     
    ■ アロハネット(ALOHANET)
    その開発の一貫としてARPAから資金援助を受けていたハワイ大学のノーマン・アブラムソン(Norman Abramson: 1932.04〜)が、ハワイに点在する島々を無線を使ってパケット通信を行うことに1970年に成功しました。
    この通信網はALOHAnet(アロハネット)と呼ばれました。ALOHANETは無線通信であったものの、複数の機器が同一ネットワークを簡単に構築できる特徴を持っていました。
    このネットワークでは、データ通信の周波数を一定にしてデータを細切れのパケットとして送信を行っていました。
    パケット通信は、現在のデジタル通信においては携帯電話や電話などすべての分野でつかわれているものです。
    この細切れのデータ(パケット)の送受信を確実にするために、受信した相手からデータを受け取ったとする確認の信号が返ってくる仕組みを作り送受信を確実にしました。
    また、複数の機器が同時にデータを送信した時に生じるデータ衝突を回避する機能も持っていました。
    この機能は以下に述べるCSMA/CD(Carrier Sense Multiple Access/Collision Detection)として発展します。
    イーサネットの初期構造は、一本の同軸ケーブルにコンピュータから接続線を延ばして結線していた。
    ハブ構造ではなかった。
    1本の同軸ケーブルは、終端処理されデータの混信を防いでいる。データの送受信は、現在のネットワークに比べるとシンプルであった。反面、信頼性は低く、通信トラブルも多かった。
    コンピュータ同士が通信し合えるという画期的なものであった。
    ■ PARCとAlto
     ALOHAnet通信方式に興味を持っていたのが、当時ハーバード大学大学院生であったボブ・メトカーフでした。彼は、ハーバード大学院時代からARPANETの研究に従事していました。彼は大学を卒業した後、ゼロックス研究所(PARC)に就職します。PARCでのメトカーフの研究グループは、何台ものコンピュータ(Alto)とプリンタ間相互の通信速度を上げる方法を探していました。当時のコンピュータの通信というのは、パソコン同士ではなくて紙へ出力するプリンタへの通信が主目的でした。
     彼らが1973年に開発したコンピュータのアルト(Alto)は、時代の最先端を行くもので、現在のパーソナルコンピュータの主流技術であるマルチウィンドウ(複数の画面を表示できる機能)を持っていたり、表示画面をビットマップ処理によって表示し、アイコンを備えてsmall talkという言語でゴミ箱やフォルダ操作を感覚的に行うことができました。また、パソコンの操作にはマウスを使い、コンピュータ同士が通信し合えるネットワーク機能を備えるまで進化させていました。
    現在のパソコン(Windows、マッキントッシュ)のほとんどの機能が当時のAltoに集約されていたのです。
    彼らが開発したマウスや、マルチウィンドウ、アイコンのアイデアは、30年の歴史を持つパソコンの世界で生き続けています。
    Altoは市販されませんでしたが、Altoの機能のほとんどを取り入れたパソコンがアップル社からLisa(リサ、1979年)として発売されました。Altoはアップル社とは別にゼロックスの研究所で進化し、1981年にXerox Starとしてワークステーションの位置づけで市販化されました。このワークステーションは、イーサネット機能を装備した最初のコンピュータでした。 
     当時、コンピュータもプリンタもそれ自体の処理速度はそこそこ速くなっていました。しかし、プリントに要する時間がとても長くかかっていました。プリントに長い時間がかかる原因は機器双方のどちらでもなく、二つのマシンをつなぐケーブルにありました。印刷するページ画像は、いったんコンピュータのメモリ上で組み立ててから、ビット単位でプリンタに転送されます。プリンタの解像度が600dpi(ドット・パー・インチ。解像度の単位で1インチ当たりのドット数を表す)の場合、ケーブルを経由して1ページあたり3,300万ビット(4MB)以上のデータを送り出さなければなりません。当時のコンピュータは、1ページ分の画像を1秒間でメモリ上に展開でき、プリンタはそれを2秒でプリントできました。しかし、問題はデータの転送であり、当時は高速だと考えられていたシリアル転送を使っても、このデータを全て送り出すのに15分近くかかったのです。
     
    ■ CSMA/CD(Carrier Sense Multiple Access/Collision Detection)
     メトカーフは、データを通信する方式として電話の共同加入線(パーティライン)という概念を導入しました。パーティラインとは、電話会議に採用されている電話通話の方式で、一度に複数の人たちと会話(電話会議)ができるものです。パーティラインに参加する人たちは、通常、電話で話かける前に、受話器に耳を傾けます。そして誰も回線を使用していない合間を縫って話しをはじめます。また、パーティラインに流れている情報に対して、興味がなければ何もしなくてよく、自分に関係があることや情報を提供したいときにパーティライン上に話を持ち出せば興味のあるパートナーがそれを聞いてくれて反応してくれるという仕組みになっています。イーサネットも同じ方式を採用しました。つまり、回線の様子をうかがって、他で転送が行われているようならばランダムに時間をあけてもう一度かけ直す方式としたのです。電話回線の状況を見ながら話したい相手に情報を届ける方式を採用しました。こうすることにより、複数のコンピュータとプリンタは一本の同軸ケーブルで配線できるようになります。同軸ケーブルには、一秒間に267万ビット(2.67Mbps)のデータを転送できるようにしました。この方式によって、それまで15分かかっていた解像度600dpiで印刷する書類の転送時間を12秒まで短縮できるようになりました。
     データ通信の制御を行うこの方式は、CSMA/CD(Carrier Sense Multiple Access/Collision Detection)(キャリア検知多重アクセス/コリジョン検出)と呼ばれているものです。難しい名前がつけられていますが、仕組みは先に述べた通りです。つまり、イーサネットでつながったコンピュータは自由な発言が許される反面、他の相手が話しているときには発言することができない工夫を施し、相手が発言しているかどうかを見る機能を備えたのです。それがキャリア検出(Carrier Sense)機能です。もし同時に発言が出されて衝突が起きた場合は、これを回避する衝突検出(Collision Detection)機能も設けました。相手が発言している(データを送信している)と言ってもイーサネットの場合はデータを細切れ(パケット、データグラム)にして送り出しているので、他のコンピュータが入り込む余地は十分にあります。この細切れのデータはMACフレーム(Media Access Control Frame)という塊として扱われます(右上図参照)。MACフレームは、データの前に宛先アドレスと送信元アドレスのタグがつけられて相手に送信されます。データは、46〜1,500バイトを任意に選ぶことができ、データの大きさ(データグラム)が小さい設定では確実な送信ができる反面すべてのデータを送るのに時間がかかり、大きいと速く送れるかわりにデータの受け渡しに失敗する可能性が高くなります。複数のコンピュータが送信を始めて通信回線上に送り出されるデータが多くなると、各コンピュータはデータの合間合間を縫うようにして送り出すようになるので交通渋滞が起きている状況と同じになり、相対的な送信速度は遅くなります。
     
    ■ イーサネットのいわれ
     2.67Mbps(メガビット・パー・セカンド)の転送速度を持つイーサネットは、とても魅力的なシステムでした。開発当時は考えても見なかったことで後でわかったことに、イーサネットはコンピュータとプリンタをつなぐだけでなくコンピュータ同士の接続も行えました。どのアルトにもイーサネット機能が付けられて、プリンタとネットワークで接続された環境では、各コンピュータにアドレスと名前をつけることになります。全ユーザが自分のアルト(ワークステーション)に名前をつけたときコンピュータ同士が認識できるようになり、互いにデータを通信し合えるようになったのです。ネットワークの母体が完成したのです。 
     2.67Mbpsのイーサネットは、頑丈で比較的単純な技術でした。コンピュータとプリンタは、一本の同軸ケーブルにT-BNCで芋づる式に接続するだけでよかったのです。これをPARC(ゼロックス研究所)は10Mbpsまで速度を上げました。不運なことに、3倍強の通信速度を上げた10Mbpsのイーサネットは、複雑な技術を必要としました。 
     このようにして、1本のケーブル線で互いのコンピュータや周辺機器を接続したことにより、まるで光が宇宙を伝搬していくように高速で快適な通信ができるようになりました。イーサネットは、光を伝搬すると考えられていたエーテル(Ether=イーサ)をもじって、エーテルのネットワークという意味でエーテルネット(Ethernet = イーサネット)と名付けられました。イーサネットは、1982年、IEEE802.3で規格化されました。
     
    ▲ 半二重通信、全二重通信(Half Duplex、Full Duplex)
     イーサネットに限らず電話回線などを使ったシリアル転送は、たえず送り手と受け手の関係(転送手順)がつきまといます。つまり、コンピュータとプリンタのように話手がコンピュータで聞き手がプリンタのようにデータの通信方向が一方向のものであれば、一本の通信ケーブルを使っても通信は行えます(片方向通信、Simplex)。しかし、互いがコンピュータ同士であったり電話での会話の場合には、話し手が聞き手に回ったり、聞き手が質問に対して応えなければならないケースが多く出てきます。一本の通信線でこれを行う場合、例えばトランシーバや一本の糸電話を想定してみますと、話し手が聞き手に情報を伝達し返事が欲しいときに「どうぞ」と自身の話を終わる意志表示をします。そうして互いにトランシーバの送信ボタンを切り替えたり糸電話を口から耳に変えて情報伝達を逆向きにさせます。このような手法のことを半二重通信と呼んでいます。半二重通信は、一本の通信線で交互に送信と受信を切り替える方法でした。イーサネットでは初期の同軸ケーブルを使ったもの(10BASE-2、10BASE-5)が半二重方式を採用していました。これは当然の事ながらデータの通信が煩雑となりデータの衝突や交通渋滞を招きやすいものでした。このデータの衝突を監視して交通整理を行う機能が先に述べたCSMA/CDでした。この機能によって一本の同軸ケーブルでも多数の機器が相互乗り入れしてデータ転送を行うことができるようになりました。
     全二重通信は、送信線と受信線が分かれていて送信と受信を個別に行える方式です。これは、電話回線やイーサネットのツイストペアケーブル(10BASE-T、100BASE-TX) で採用されているものです。全二重方式では、データの流れの方向性が一定でスムーズであり送信と受信が同時に行えるのが大きな強みです。この通信では2対のペアラインで送信(TxD)と受信(RxD)を行うのが普通ですが、必ずそうであるとは限りません。例えば、周波数を変えて送信するという方式では1本の信号線を使って全二重送信を行っているケースもあります。全二重通信ではデータの衝突という不具合が起きないので、データ衝突回避機能(CSMA/CD)を使う必要はなくなります。しかし、ケーブルを接続するハブがスイッチング・ハブではなくリピータ・ハブの場合は、このハブが全二重送信を行わないので、ツイストペアケーブルを使ったとしても半二重通信となります。全二重通信が行えるのはクロスケーブルを使ったコンピュータ同士の直接接続か、スイッチング・ハブを使った接続に限られます。
     
    ▲ 同軸ケーブルからツイストペアケーブルへ
     イーサネットが開発された当初、データを伝送するケーブルには同軸ケーブルを使っていました。1982年にイーサネット規格IEEE802.3が制定されたとき、ケーブルは10BASE-2という規格でまとめられました。この規格は、直径5mm、50Ω同軸ケーブルが採用されていました。コネクタは、BNCを使っていました。10BASE-2は、10Mbpsの速度で200mの伝送距離性能を持っていました。当時としては、かなり長距離で、かつ高速通信だったと言えます。BNCコネクタを採用したのは、使い勝手と信頼性が良いからだと思います。この方式は、10BASE-5というカテゴリーで500mの伝送性能を持つようになります。
     ツイストペア式のケーブル(UTP = Unshielded Twisted Pair)は、4年後の1987年に登場し、1990年に10BASE-T規格となりました。なぜ、同軸ケーブルからツイストケーブルに変わったのでしょうか。その理由の一番大きなものは、価格であったと言われています。同軸ケーブルは、周波数特性が安定していて長距離伝送にも耐えられる性能を持っていましたが、価格が高かった。敷設費用を低く抑えたいという要求から、ツイストペア式ケーブルが開発されたと言われています。
    ツイストペアケーブルの原型は、電話ケーブルです。
    これは、電話回線を使った通信網を研究していたAT&TとIBMがトークンリング(Token Ring = IEEE802.5、通信速度4Mbps[1985年]もしくは16Mbps[1989年])という技術を開発したのに始まります。これは、一種の高速データ通信規格でした。この通信方式に、電話回線で使うツイストケーブルを使っていたので、その延長線上にあったイーサネットもこの技術を流用して10Mbpsの伝送速度を満足する仕様を構築しました。トークンリングは、イーサネットが開発された当時はライバル関係にありました。しかし、イーサネットの方が使い勝手良く伝送スピードも速いものが開発されて行ったので、ギガイーサネットが開発された1999年以降、TokenRingの開発は停滞してしまいました。 
     ツイストケーブルを採用したイーサネットは、高速通信は満足できたものの長距離伝送が難しく、10BASE-Tでは100mまでと規定されていました。伝送距離がそれほど長くとれない撚り線式ケーブルの10BASE-Tでしたが、伝送距離の短さをハブを用いることによって克服し、敷設費用が安くできることと簡単な工事が功を奏して、以後、100BASE-Tや1000BASE-T規格としてTタイプ(ツイストケーブルタイプ)が普及することとなりました。
     右の表を見てもわかるようにツイストペアケーブルでギガヘルツ帯域のデータを送ることがいかに困難であるかがわかります。同軸ケーブルや光ケーブルならたやすく達成できるこの速度も、ツイストペアでは困難であるために以下で説明するギガビットイーサネットでは巧妙な方法を用いてギガビットの速度を達成しています。
     
    ▲ モジュラージャック(Modular Jack)
     イーサネットケーブルに使われているコネクタは、電話で使われているモジュラージャックに形状が極めて似ています。電話のモジュラージャックは、米連邦通信委員会(FCC:US Federal Communications Commission)が制定したRJ-11(RJはRegistered Jackの略)という6ピンのものが一般的で、他にRJ-14、RJ-25、RJ-45、RJ-48などが取り決められています。イーサネットケーブルに使われるモジュラージャックは、RJ-11より大きい8ピンのものを使っています。形状が電話用に規定されたRJ-45モジュラージャックに極めて似ているため、RJ-45という呼び方が一般的になっています。しかし、本来、電話用のRJ-45はイーサネットで使われるRJ-45とは形状が若干異なり、配線も異なります。電話用RJ-45は、結線が中央部の2つのピン(No.4 + No.5)だけしか結線されておらず、残りのピンは抵抗器で短絡処理されています。またジャックの形状が片側の横部に出っ張りがもうけられていて(キー溝処理)、キーのついたRJ-45ジャックはイーサネットに接続できないようになっています。従って、イーサネットで使われるモジュラージャックは電話用のものと区別するために、「8P8C」という言い方をするようになっています。どうしても「RJ-45」を使いたい場合は、「イーサネット用RJ-45」と但し書きで使うことが望ましいと言えましょう。
     8P8Cモジュラージャックは、100BASE-Tまでは、2対(4線)しか使用しておらず残りの4線は開放になっていました。つまり1番ピンと2番ピンを送信線(TxD)にあて、3番ピンと6番ピンを受信線(RxD)にあて全二重通信ができるようになっていました。
    ギガビットイーサネットでは、4対8線の信号線をすべて使っています。従って、100BASE-Tで使っていたUTPケーブルを1000BASE-Tで使う場合には、ピン配線がすべて結線されているカテゴリー5以上のものを使う必要があります。
     
    ▲ ストレートケーブルとクロスケーブル
     RS232Cやイーサネットケーブルなどのシリアル転送を行うケーブルには、2種類の配線処理を施したものがあります。ストレートケーブルとクロスケーブルです。どうしてこのような2種類のケーブルがあるのでしょうか。コンピュータを直接接続(ピア・トゥ・ピア = peer to peer)する場合を考えてみます。この場合、一方のコンピュータから送り出されるデータ(TxD)は相手の受信(RxD)ポートに入らなくてはなりません。コンピュータは自身で送受信の切り替えを行いません。従って、コンピュータ同士の直接接続をする場合送信データを受信側に持っていくクロスケーブルが必要になるのです。ケーブルは本来ストレートケーブルが基本です。コンピュータは多くの場合マスターになるものであり、コンピュータに接続される周辺機器はスレーブとなるので機器側には予め送受信を変換する機能、すなわち、ホストであるコンピュータから送られてくるデータを受信部で受けてホストコンピュータに送るデータはケーブルの受信ポートへ流す機能が備わっています。従って、この場合はストレートケーブルを使えば問題なく通信ができます。コンピュータ同士はお互いがホスト(主人公)なのでストレートケーブルでは通信がなりたたないのです。コンピュータ同士を接続する際に直接ではなくてハブを介して行う場合は、ハブ内部に送受信の切り替えがついているのでストレートケーブルを使うことができます。クロスケーブルは、コンピュータ同士の一対一の接続などの極めて限られた用途に使われるだけで、ほとんどの場合ストレートケーブルが使われます。
     100BASE-Tまでのケーブルは、以下に示す2対(4本)しか使っていません。送信線(TxD)と受信線(RxD)の2系統です。クロスケーブルは、送信→受信という結線になっています。ストレートケーブルは当然、送信→送信、受信→受信という配線です。イーサネットケーブルのピン配置は面白い配線になっていて、ピン番号1から8まで順番通りになっていません。4番ピンと5番ピンを避けて配線されています。これは、イーサネットケーブルが電話線の規格と同じものを使っていて、電話線ですでに中央の4番ピンと5番ピンが使われているので、ここを避けてイーサネット通信に適用しました。従って、送信は1番ピンと2番ピンを使い、受信は3番ピンと6番ピンを使う取り決めになっています。ギガビットイーサネットでは、4対(8線)をすべて使わないと速度が足りないのですべて送信線になり、同時に受信線にもなっています。

     

     
    ▲ ギガイーサネット(Giga-bit Ethernet)
     1999年に規格化された1000BASE-T(ギガイーサネット)では、8P8Cコネクタに結線されている8本すべてのピンを使って送信しています。1Gビット/秒のデータ通信をこれまでのツイストペアケーブルの延長で行うと帯域が不足してしまうため、4対(8線)すべてを使って目的とする通信速度を達成しています。この手法はもはやシリアルとは言い難くパラレル転送と言えなくもありません。また、1000BASE-Tでは4対8線のすべてのケーブル線を使って送信するので、通信は全二重とはならずに半二重通信になるのではないかと思いたくなります。しかし、ツイストペアケーブルを使うギガイーサネットではハイブリッド回路がもうけられていて、送信と受信を位相反転することによって混信を回避できるため4対8線すべてを使って同時に送受信が可能となっています。
     さらにまた、1対の信号線には従来「0」と「1」の信号しか乗せていなかったものを1000BASE-Tでは電圧を変えて5種類(+1.0V、+0.5V、0V、-0.5V、-1.0Vの5進数)の信号パターンを使っています。これを4対の信号ラインで同期を取って送るので、54 = 625種類のデータを一度に送ることができます。2進数で言うと10ビットの数字を扱うことになります。
    ■ 8B1Q4(8bit-1 quinary quartet)の導入
     8B1Q4は、とても難しい言葉です。これは要するに1000BASE-Tでの信号を送る取り決めです。1000BASE-Tでは4対8線すべてを使って高速通信をします。このとき、4対の信号線に8ビットの情報を振り分けて並列に送る方式を採用しました。これが「8B1Q4」という規格です。この言葉の意味は、8ビットの情報を5進数(quinary)に直して4ライン(quartet)の通信線で送るという意味です。1000BASE-Tでは、4対の通信線で5種類の信号パターン(5進法のデータ)を送りますから、4桁の5進数情報となります。4桁の5進法は、10進法では54 = 625までの数値となります。元の情報は8ビット(256種類)ですので数が倍以上多くなりました。数を多くしたのは、高速通信でのエラーを防ぐために、元の8ビット情報にエラー検出ビットを1ビット加えて9ビット化しているためです。9ビットデータは512種類なので625種類ある4桁5進法表示で十分に対応できます。
     話をまとめますと、
    『1000BASE-Tでは、既存のツイストペアケーブルを使って高速通信をするために4対の信号線をすべてを使って送信し、信頼性のあるデータとするために8ビット情報を9ビットにし、これをさらに4ラインに9ビット情報を振り分けるために5進法データとした。
    ということになります。
     この方式の採用によって、1ギガビット/秒のデータは4対の信号線で振り分けて8ビットの元情報を送ることになるので、1000Mビット/秒 / 8 = 125M ビット/秒の速度で送信すればよく、カテゴリー5のイーサネットケーブルを使ってもなんとか初期性能を達成できる数値となりました。
     

     
    ■ オートネゴシエーション(Auto-Negotiation)
     ギガビットイーサネットの普及に関しては、すべてを入れ替えるのではなく既存の設備を最大限利用して通信速度を上げるというのが基本構想にありました。ネットワーク社会に広く普及した100BASE-T環境のネットワーク設備の大枠を崩すことなくギガビット環境を織り込んでいくために、通信手順にオートネゴシエーションという機能が盛り込まれました。この機能は、通信を開始する前にネットワークがギガビットベースでできるかどうかを確認し、できない場合には100BASEで行うというものです。従って、イーサネットケーブルがギガビットで送信できる性能にない場合やハブにもその性能が満足できない場合、低速で行うことになります。
     この機能をオートネゴシエーションと言っています。この機能は1000BASE-T対応のスイッチング・ハブに装備されていてデータを通信する際にどの速度で通信をするかを決めています。
     
    ■ ハブ(Hub)
     ツイストペアケーブルを使うイーサネット接続では、機器はハブと呼ばれる中継器に接続されます。
    ハブの仲間には機能上、以下に示すようなものがあります。
    1. リピータ:
     ケーブルに流れる信号の中継を行うためだけのもの。
     単純にデータを右から左で流すだけなので、
     送信データの宛先を読み取って相手先に効率よく転送する機能はない。
     伝送距離が長くなる場合、リピータを中継してデータを転送する。
    2. ブリッジ :
     リピータの機能に加え、転送先のMACアドレスを解読して
     適切なポートにデータを転送する(フィルタリング)機能が付加されている。
    3. スイッチング・ハブ :
     現在、もっとも一般的に使われているハブ。
     ハブと言えばこれを指す。
     本来の目的は、4台から8台のイーサネット対応機器を接続して
     送信されてくるデータの宛先を読み取り適切にデータを転送し、
     配布しなくてもよい宛先にはデータを送信しない機能を持つ。
     階層化したネットワーク(ハブが何台もつながれた構造)での
     効率よいデータ転送を行う。
     それに加え、通信の手順(半二重か全二重かの判断)や、
     接続されている機器が10BASE-Tか100BASE-Tか1000BASE-Tかの
     判断を行う。
     1990年代中頃までは高価であったが、低価格化と共に急速に普及した。
     現在のスイッチングハブは多機能になリ、ピータ機能やブリッジ機能、
     ルーター機能まで備えたものが市販されている。
    4. ルーター
     ネットワーク群相互のデータ通信を効率よく行うための中継器。
     インターネットが開発される中で、必要不可欠の技術がルータの開発
     であり、IMP(インプ:Interface Message Processorメッセージ転送装置)
     が開発された。
     IMPは、コンピュータそのものである。
     1969年に1号機が完成した。当時のIMPは、ハネウェル社製のDD516
     で、180cm(H) x 60cm(W) x 70cm(D)という大型のものであった。
     というコンピュータIMPを使って、ユタ大学の「PDP-10」 → スタンフォード
     大学の「SDC940」 → UCLAが所有している「シグマ7」での接続が行われた。
     ルータは、ネットワーク上で交通整理の役割を果たし、入ってきた
     パケット情報をどのルートに出してやるのが一番効果的かを判断
     して処理を行う。
     
     
     
    ▲ 二種類のツイストペアケーブル(UTPとSTP)
     ツイストペアタイプのイーサネットケーブルには、性能別カテゴリーに分けられた種類の他に、構造上2種類のものがあります。ケーブルをシールド線で覆った構造のSTP(Shielded Twisted Pair cable)と、シールド線を使わないUTP(Unshielded Twisted Pair cable)の2種類です。右図にケーブルの体裁を示します。STPケーブル(図の右ケーブル)では各ツイストペアケーブルがシールドされているのがわかります。シールド線を使ったSTPの目的は、外部ノイズの侵入を防ぐためです。シールドタイプのものは、ノイズ発生の多い工場などで有効であるものの、日本での普及は低く、シールド線を伴わないUTPケーブルが圧倒的です。STPは、ヨーロッパで広く普及しています。シールドタイプケーブル(STP)は、1000BASE-CXというカテゴリーに属していて、日本の家庭やオフィスで使われる1000BASE-Tのカテゴリーは、シールド線のないUTPです。STPケーブルを使う場合は、これを接続するハブやルーターにアース対応のものを使わなければならず、これを怠ると効果が半減してしまいます。シールドというものは、そもそも、装置から発するノイズを外に出させなかったり、外からのノイズを遮断する目的ですから、装置全体を完全に密封する形でシールドを施さねばなりません。水道のホースや密閉容器と一緒で、穴が空いた箇所(シールド処理を施していない部位)があるとそこからノイズが容易に侵入するので、それがかえって大きな影響を及ぼします。シールドは、特にコネクタ部でシールド性が保たれない場合が多く見られます。STPは、シールドが施されている関係上取り回しが悪く、距離も25mと限られています。また、ハブなどの関連機器を含めたコストがかかるため、この規格が普及をみない大きな理由となっています。日本では、ノイズに対する配慮をしなければならない高速通信には、STPよりも光ケーブルを設置する傾向にあります。
     
     
    【GigE Vision】  (2010.02.28追記)
     GigE Vision(ぎぐいー・びじょん)は、ギガビットイーサネット技術を元にした産業カメラでのデータ通信規格です。
    この規格は、AIA(the Automated Imaging Association、1984年設立)が策定して管理しています。この規格は、1999年に開発されたギガビットイーサネット規格を産業カメラに対して有効にかつ簡単に利用できるように細かい規格を取り決めたものです。
     GigE Visionは、一般に公開された規格ではなく、これを使う場合にはAIAに加盟し、有償でこの規格の使用許可を得る必要があります。
    AIAは、営利団体ですからもっともなことです。
     
     GigE Visionの大きな特徴は以下のとおりです。
     
    【特徴】
    1. データ転送速度: 1000 Mbps。
    2. ケーブル長: 100m max. カテゴリ5以上の品質をもつケーブル
    3. カメラ機器との簡便な認識 - Device Discovery機能
    4. 10Gイーサネットに対応 
     
    この特徴を見る限り、一般のイーサネット規格とさほど大きな差異は見あたりません。GigEはイーサネット規格ですから当然と言えば当然です。ケーブルもハブもパソコンもギガビットイーサネット対応の市販品が使えます。しかし、イーサネットの性能ギリギリまで転送速度を向上させている点やカメラの認識のしやすさという点で細かい規定が施されています。
    GigE Visionは、産業カメラ向けに使いやすいにように規格を絞ったもの、と言えましょう。
     
    ■ UDP/IP
     GigEを使うと何がメリットがあるかというと、ギガイーサネットの通信速度帯域を規格の上限までに引き上げることができます。
    通常のギガビットイーサネットは、通信手順が手堅いためにデータ通信速度の上限が規格の1/3程度でした。
    GigEでは、通信速度を上げるために、通信手順にUDP/IPを使っています。この規格は昔(1980年)からありました。
    標準的なイーサネット通信プロトコルは、TCP/IPです。
    UDP(= User Datagram Protocol)は、シンプルなデータ転送手順で、データ量(= Datagram)を任意に決めてデータを送ることができます。UDPでは、データのパケット毎に受信側がデータを受け取った確認を行わずに一方的にデータを送り続けます。この方法によってデータ転送速度を向上させ、規格速度に近づけています。
     この規格では、当然、データ通信時のエラー発生時の処理が問題となります。
    しかし、UDPでは、この件に関しては規格として決めていません。
    この問題は、ユーザ側で対応すべきものとしています。
     したがって、UDPでは、エラー処理をアプリケーションソフトウェアで対応していました。
    GigEは、このエラー処理手順を決めて規格化したと言えます。
     ちなみにTCPは、Transmission Control Protocolの略で、インターネットで一般的になっている通信手順です。
    インターネットではこの手順で全世界をつないでいます。TCPは、データパケット毎に通信が完了したかを逐次確認しています。当然TCPでは確実な通信手順を行うのでデータ転送速度が上がりません。
     
    ■ Discovery( = カメラの認識)
     イーサネット接続でやっかいなのは、イーサネット機器とコンピュータとの接続です。インターネットに接続する場合、サーバの決まりによってインターネットプロトコルを設定しなければなりません。もっとも大事な接続はIP設定です。これを正しく設定しないとネットワークに接続できません。GigE Visionでは、イーサネット接続を簡単にできるようにしています。それが Device Discovery 機能です。
     GigE Visionでは、3段階によってIPアドレスを設定できるようになっています。
    つまり、
    1. 固定IPアドレス(Persistent IP)
    2. 自動取得(DHCP = Dynamic Host Configuration Protocol)
    3. LLA(Link Local Address)設定
    の3種類です。GigE Visionでは、カメラを立ち上げて接続されたネットワークでコンピュータとアドレスの確認をするとき、上の3種類で次々と接続の可能性を確かめて行きます。本来ならば2番目のDHCP(自動取得)が一番簡単なのですが、たくさんのカメラが一度にONされるとそれぞれの認証に時間がかかってしまうために、上の3つを柱として迅速な接続設定がなされます。
     
    ■ GVCP ( = 通信手順)
     GVCPは、GigE Vision Command Protocolの略で、GigE Visionで使われるコマンドのことです。このコマンドを使ってカメラを操作します。規格が決まっているのでカメラを作る側も使う側もカメラタイプを気にすることなく操作ソフトウェアを開発したりカメラ操作を行うことができます。
    通信手順は、ヨーロッパのEMVAという団体が無償のGEN<i>CAM というプログラムインターフェースを出しているので、多くのユーザはこれを利用しています。
     
    ■ GVSP ( = ストリーミング手順)
     GVSPは、GigE Vision Streaming Protocolの略で、カメラからの画像をコンピュータに転送する手順を決めたものです。ギガビットイーサネットでは、従来のパケットサイズよりも大きなジャンボフレームが設定できるので、より高速なデータ通信が可能となっています。
     
    ■ GenICam ( = カメラ操作規格)
     GigEが有償の規格であるので、GenICamという無料のプログラムインターフェースを利用すればGigE対応のカメラが操作できます。
    GenICamは、abbreviated for Generic Interface for Camerasの略で、GigEやCameraLinkなどに対応した産業カメラの操作を統一化するために作られたインタフェース規格です。この規格は、欧州のEMVA( = European Machine Vision Association)が2006年にリリースしたものです。
    GenICamで決められた規格に従い、XML言語(インターネットブラウザで使われる言語)でカメラ操作ソフトウェアを作れば、GigEに対応した産業カメラを動かすことができます。カメラのシャッタ速度やゲイン設定、データ通信などは、この規格とイーサネット規格を利用します。
    GenICamは、EMVAより無料でダウンロードできます。
     
     
     
     
     
    【CoaXPress】(シリアル通信)   (2010.03.28)(2013.02.11追記)
    CoaXPressに採用されている同軸ケーブル。
    ビデオケーブルと同等の75ΩBNCケーブルが使われている。
    下のケーブルは、5本の同軸ケーブルを1体化した
    5W5と呼ばれるケーブル。
    5W5ケーブルは、5m、15m、50mの
    3種類の長さが供給されている。
     CoaXPress(こあっくすぷれす)は、ビデオ用75ΩBNCケーブル(右写真)を使った高速データ通信規格です。
    同様のものに、放送局で使われているHD-SDIがあります。
     CoaXPressは、計測用デジタルカメラのデータ通信用に開発されたもので、最大通信速度6.25G bit/sの性能を持ち、4本同時に使用すれば25G bit/sの通信速度が得られます。
     CoaXPressの特徴は以下の通りです。
     
    【CoaXPressの特徴】
      ・1本のBNCケーブルを使用(シンプルで簡便な結線)
      ・高速通信(ギガイーサネット通信よりも6倍以上高速)
      ・長距離通信(100m以上)
      ・1本のBNCケーブルで
        カメラへの電源、カメラ制御、データダウンロードを行う。
     
     CoaXPressの通信速度は、CameraLinkと同程度、もしくはそれ以上の通信速度となります。非常に高速でかつ簡便な通信手段です。
     この規格は、オランダに本社を置くカメラメーカのAdimec社が中心となって開発されました。その後、2009年にコンソーシアムができて規格化されました。
     CoaXPressを使った製品は、2010年末に発売される予定です。2010年時点では、最も新しいデジタル通信規格と言えます。
     この規格に参画したのは、以下の企業です。
     
    ・ Adimec社(オランダ) - カメラ開発
    ・ Active Silicon社(英国) - 画像ボード開発
    ・ EqcoLogic社(ベルギー) - 送受信素子開発
    ・ Components Express社(米国) - ケーブル担当
    ・ アバールデータ社(日本) - 画像ボード開発
    ・ 日本エレクトロセンサデバイス社(日本)
               - ラインスキャンカメラ開発
     
    日本では、JIIA(日本インダストリアルイメージング協会)が標準化に向けて活動を行っています。
     この規格の大きな特徴は、同軸ケーブルという馴染みの深い簡便なインフラを使ってカメラとコンピュータを簡単に接続していることです。同軸ケーブルの特徴であるケーブル長を長くすることができ、100m以上の通信距離を可能として、尚かつ最速レベルの通信速度を達成しています。
     同軸ケーブルは、不平衡ケーブルですから、データは不平衡信号となります。イーサネットやUSBで使われいる差動信号と異なります。
     同軸ケーブルは、長距離通信が得意であるものの無尽蔵に長くすることはできません。
    CoaXPressの規格である6.25G bit/sの転送は、100mの長さに渡って行うことはできず、ケーブルの長さやBNCケーブルの種類によって伝送スピードが変わってきます。およそ30m程度までであれば最高スピードは確保されているようです。
     
     この規格の面白いところは、BNCケーブル1本でカメラへ電源(最大13W)を供給し、カメラ制御信号を送り、かつ画像データを高速で受け取ることができることです。
    以下に、CoaXPressの機能図を示します。
    CoaXPressでは、CoaXPress対応のカメラと画像ボードが必要です。ケーブルはBNC1本を接続するだけです。
    CoaXPressの心臓部は、EqcoLogic社(ベルギー)が開発したCMOS技術のEQCO62T20/EQCO62R20素子で、これでBNCケーブルを使ってデータ送受信できるようにしています。
     
     
     
     
     
     
     
    【Fire Wire = IEEE1394、i.Link】(シリアル通信)  (2009.09.12追記)
    IEEE1394のコネクタ。iLinkや小型パソコンでは右の小さいコネクタが使われる。
    ■ 開発背景
     FireWireは、IEEE1394という名前で知られているシリアル高速データ通信規格です。
    大容量ハードディスクや、DVD、カメラとの接続に使われています。
    この規格は、米国アップル社が当時高速通信の代名詞であったSCSIパラレル転送の置き換えを狙ったものです。
    1980年代後半から開発を手がけて、1995年に完成しました。
    アップルが開発したシリアル転送方式は、当初Fire Wireと呼ばれていましたが、標準化によってIEEE1394となりました。
    この高速データ通信インタフェースは、1998年になってソニーをはじめとした関連企業が採用を始めました(1999年1月15日、アップル社は新型G3Mac=GossamerにこのFireWire通信機能を標準でサポートしました)。
    ソニーは、この規格に i.Link という呼称を与えました。
     
     この高速通信インタフェースは、USB1.0とほぼ同時期に登場しました。
    両者が出始めたとき、双方の性能はそれほどかぶってはおらず、両者の棲み分けはできていました。
    USBがマウスやキーボード、プリンタなどの比較的低速のデバイスをサポートしていたのに対し、IEEE1394は開発の目的を高速通信と使いやすさに置いていました。
    USBが、コンピュータの一元管理で接続から解除、通信管理がなされるのに対し、FireWireはコンピュータの管理を受けなくても通信を行うことができました。
    接続も安定しており、通信時でのパソコン負荷がかからないため実効スピードはUSBよりも優れていると言われていました。
    FireWireのターゲットはSCSIであり、SCSIに比べると随分と使いやすいものになりました。
    FireWireは、通信ケーブルを長くすることができ、SCSIと同じようにディジーチェーンで機器を接続することができました。
    また電源も同一ケーブルで供給できるホットプラグ対応でした。
     
    ■ 通信速度
     IEEE1394の通信速度は、当初、12.5Mバイト/秒、25Mバイト/秒、50Mバイト/秒で策定されました。
    ケーブルは6ピンで構成され、2対4線の信号線と+8VDC 〜 +30DC、1.5Aまでの電源を供給するパワーライン2本で構成されています。
    4ピンの小さいコネクタは、パワーラインが無く信号線だけとなっています。
    ケーブル長は1本当たり4.5mで、リピータの使用により最大総延長72mとすることができ、ケーブル太さもφ6mmでSCSIのφ10mmに比べて細くなっています。
    また、接続できる機器は63台までという規格になっています。
    これもSCSIよりははるかにたくさんの機器を接続する仕様となっていました。
     
     IEEE1394a(2000年)の転送速度は、400Mbpsとなっていてビデオ画像を十分に送る能力を持っていました。
    また、2002年には800M bpsのスピードを持つIEEE1394bができあがり、さらに2006年にはIEEE1394c-2006という規格ができ、LANケーブル(カテゴリー5)を使って800M bpsの転送速度を持つようになりました。
     
    ■ USB2.0との比較
     IEEE1394は、製品が世に出されたタイミングが極めて近いUSB2.0とよく比較されます。
    USBは、そもそも高速通信を行う目的として作られたのではなかったのですが、USB2.0で高速通信ができるようになるとIEEE1394の通信速度が遅く感じられるようになって、USB2.0の後塵を拝する感じを受けるようになりました。
    現在のパソコンにはUSBポートがたくさんついているのに対し、IEEE1394はソニーのVAIOとマッキントッシュ以外はオプション扱いになっています。
    こうしたことから、IEEE1394b(2002年)では転送速度を800Mbpsと速くして、USBとの差別化を図るようになっています。
     Fire Wireは、1対1で使うことが多い応用(デジタルカメラをパソコンに接続するとか外部HDDを接続する目的)では、転送効率が良いために実質上のデータ転送がUSB2.0よりも優れていると言われています。
     
    ▲ i.Link
     デジタルムービーカメラの画像転送インタフェースとして使われているのがi.Linkと呼ばれる通信方式です。
    これは、パソコンのIEEE1394と同じもので、呼称を変えただけです。i.Linkで扱うテレビ信号には、i.Link(TS)(Transport Streamの略)と、i.Link(DV)(Digital Videoの略)とがあります。
    i.Link(TS)はデジタル放送で使われるMPEG-2 TSであり家庭用DVD機器との接続に使います。
    i.Link(DV)は家庭用デジタルビデオで使われているDV信号です。
    これらは、同じIEEE1394の仲間ですが互換性がないために、i.Link(TS)端子とパソコンのIEEE1394端子にケーブルを接続しても映像を取り込むことはできません。
    ただし、i.Link(DV)はIEEE1394と互換があるため、家庭用のデジタルビデオカメラの映像をIEEEE1394ケーブルを介してパソコンに取り込みことができます。
    デジタル受信機では、両者の信号を明確にするためにi.Link(TS)、i.Link(DV)が明記されています。
     

     上に示したコネクタは、IEEE1394bに採用されている9ピンコネクタです。
    ピン配列を見てみますと、旧来の6ピンコネクタよりシールドラインが3本増えて9本になっていることがわかります。
    通信ラインは2対4線でツイストペアになっていて、一方の送信ライン(1ピンと2ピン)が他方の受信ライン(3ピンと4ピン)で結線されてクロスケーブルになっていることがわかります。
     
     2008年に発表されたIEEE1394c-2006では、イーサネットで使われているカテゴリー5のLANケーブルの使用が決められています。
    これはFireWire 800Tとも呼ばれているもので、インターネットで実績を積んだケーブルを使うことによりより使い勝手のよい(そして安価な)通信網を構築しようとしたものと思われます。
    しかし、2009年の時点ではこのケーブルを使った機器やカードが市販化されたという話は聞いていません。
     
    【2012.08】
     2012年夏の時点でIEEE1394bを標準で装備しているパソコンはほとんど見あたらず、ソニーのVAIOとアップルのMacintoshがiLinkとFirewire800という名前で装備させています。
     
     
     
    【USB = Universal Serial Bus】(シリアル通信)  (2009.04.01追記)(2009.09.23追記)
    ■ 開発背景
    USBポート。取扱が簡単。管理された電源も供給される。
    USB2.0では480Mbpsの通信を可能にした。
     USB (Universal Serial Bus)は、名前が示す通りパソコンに接続されるさまざまな周辺機器の通信形態を統一した、シリアル転送によるインタフェース規格です。
    接続機器は、マウスからキーボード、プリンタ、ハードディスクドライブなどコンピュータに接続される機器すべてが対象となりました。
     
     USBは、1993年頃より、インテル、マイクロソフト、コンパック(現ヒューレット・パッカード)などの米国のコンピュータ関連企業と日本のNECによって共同研究が始められ、その後、デジタル・イクイップメント(DEC)、IBM、ノーザン・テレコムが加わって、3年後の1996年1月にRevision1.0として正式発表されました。
     
     このインタフェースは多目的に使われる通信方式であるため、Universalという名前がついています。
    USBは、2000年あたりから急速に普及し、2009年時点ではパソコンのインターフェースの中で最もよく使われる代表的なものとなっています。
    通信速度がそこそこ速くて使い勝手がとても良いというのがUSB普及の大きな要因でした。
     
     1998年5月、マッキントッシュのiMacが発売されました。
    その驚異的な売上で有名になったパソコンに標準装備されていたのが、シリアル転送方式のUSBでした。
    iMacでは、マッキントッシュが従来使用してきたプリンタポート、ADBポート(RS422シリアル転送)、SCSIを廃止してこの新しい方式を全面的に採用しました。
    現在ではしごく当たり前の出来事と思えることが15年前では斬新的だったのです。
    また、USBの決定的な普及を見たのは、Windows98がUSBを標準でサポートしたことによります。
     
    ■ 機能
     USBは、マウスなどの低速データ通信からプリンタ出力へのまとまった量のデータ通信まで幅広い応用に活躍し、USBハブの使用によって最大127種類の機器との接続が可能です。
    USBでは、コンピュータなどのホストが接続確認からデータ転送の管理、電源の管理などをすべて行います。
    従って、この規格は単なる電気規格だけではなく、コンピュータ(ホスト)による管理を必要とします。
    USBはホストを中心とした接続なので、頂点にホストが位置するツリー構造(木構造)となります(右図参照)。
     
     USB機器をケーブル接続してホストがデバイスを認識すると、ホストはデバイスにIDを割り振ります。
    割り当ては7ビットで行われるため「0」を除いた127の番号がデバイスに当てられます。
    ハブも一つのデバイスとしてカウントされます。
    ケーブルは1本あたり最長5mであり、ハブは5台までシリーズに接続することができます。従って、ホスト(コンピュータ)から末端のデバイスまでのケーブル総延長は、5m x 6階層 = 30mとなります。
    ケーブルは、データ線が1対(2線)しかない単純なものです。
    このデータ線は、一方通行の信号ですから互いの送信を行うときは、通信の切り替えを行う半二重通信となります。
     
    ■ 通信の4つのモード
     USBの巧妙な所は、転送モードを4種類に分けていることです。
    各デバイスにはこれら4種類のモードのいずれかが割り当てられ、データの交通整理を効率よく行っています。
     
    4種類の転送モードは、以下の通りです。
     
     1. コントロール(Control):
        USB接続や解除時のデバイス認識、パラメータ設定通信。
        通信は半二重。
        転送の周期は不定で、必要に応じて行われる。
        データ量は8バイトで、転送速度は1.5M bps。
        データを受け取ったかどうかの再送機能あり
     2. インタラプト(Interrupt):
        マウス、キーボードなどの低速通信。デバイスに決められている
        転送周期(N = 1ms 〜 255 ms)で、デバイスからのデータを
        転送する。
        データ量は、1 〜 64 バイト。
        マウスやキーボードは、いつデータがコンピュータに送られるか
        わからないので、コンピュータ(ホスト)は、1/1,000秒〜1/4秒
        でデバイスにアクセスしてデータを出しているかチェックしている。
        転送速度は1.5M bpsと低い。
        データを受け取ったかどうかの再送機能あり。
     3. アイソクロナス(Isochronous):
        ビデオ信号などの垂れ流し転送用。データ受信の確認を行わず一方的に
        データを送る。1ミリ秒毎に1フレームの転送。
        データ量は、1 〜 1,023バイト/フレームで、最高12Mビット/秒の転送
        を行う。
     4. バルク(Bulk):
        プリンタ転送などの一括大容量転送用。データ受信の確認あり。
        データがうまく送れなかった時は再度同じデータを送る。
        インタラプトとアイソクロナスでの転送がないときを見計らって、
        8/16/32/64バイトの4種類のいずれかで転送。
        細かいデータ量であるが、12M bpsの最高の転送速度を持っている。
     
    これらの転送モードは、USBが低速から高速までのデータ通信を行わなければならない関係上、データ転送を効率よくおこなうために決められたものです。
    マウスやキーボードからのデータは、量的にそれほど多くはないものの、絶えずそれらの情報を監視してその情報でコンピュータを動かさなければならないので、インタラプトモードが指定されます。
    プリンタやメモリスティックなどへのデータ転送は、まとめて一気に行う必要があるのでバルク転送となります。
    ビデオ画像を表示する装置では連綿と大量のデータが送られるので、再送要求を行わないアイソクロナス転送となります。
     これら4つの転送モードで、どのモードの優先度が一番高いかというと、
     
      アイソクロナス転送 > インタラプト転送 = コントロール転送 > バルク転送
     
    という順番になっています。
    プリンタへのデータ転送(バルク転送)は優先順位が低いために、他のデータが通信ラインを占有しているとそれが空くまで待つ仕組みになっています。
    通信が空いた瞬間を狙ってデータを送り出し、合間を縫って再びデータを送り出す仕組みをとっています。
    一番優先順位が高いのはアイソクロナス転送で、すべての通信に優先します。
    この通信が行われているとき、これがマシンに負担をかけている場合、マウスもキーボードも動きがぎこちなくなります。
    私が使っているパソコンにはUSB接続のテレビアダプタがついていて、テレビをパソコン上で放映させながら他の作業をすると速度が落ちます。
    アクティビティモニタを使ってコンピュータのCPU稼働率を見てみると(下図参照)、USBテレビのアプリケーションでのCPUの負荷は109.2%を示しています。
    このことから、USBによるテレビ放映はコンピュータにかなりの負担をかけていることが理解できます。
     

     
    ■ 電源管理
     従来の通信ポートは、コンピュータに電源が入っているときにケーブルを抜き差しすることはできませんでした。
    これを行うと機器との通信が途切れたり、認識しなくなったり、パソコンがフリーズしたり、コンピュータの基板が損傷する危険がありました。
    Windows PCの専用マウスとキーボードは、PCを立ち上げたままケーブルを抜いてしまうと再び挿入しても動かず、再度PCを立ち上げ直さなければなりません。
    SCSIケーブルを使った機器接続でもこの傾向が強く、1990年代、パソコンがSCSI周辺機器を認識してくれるかどうかいつも神経を使っていました。
    私は、SCSI機器を電源をいれたままパソコンに接続し、マザーボードを損傷させたことがあります。
    それほどデリケートな通信ポートだったのです。
    それがUSBでは、電源を入れたままマウスやキーボードのケーブルを抜き差しができ、ケーブルを再度挿入してもパソコンは都度接続した機器を認識してくれます。
    パワーマネージメントがしっかり管理された規格だと言えます。
    ただ、そうだからと言ってUSBのプラグを闇雲に抜き差しするのは危険です。
    HDDやメモリスティックなどでは大量のデータを保存しますからデータ転送中にUSBプラグを抜くとデータが壊れるおそれがあります。
    こうした機器では、ケーブルを外すときホストとデータのやりとりをしていないことを確認する必要があります。
    USBから供給できる電源は、初期のもので供給電圧が4.4VDC、供給電流は100mAでした。
    USB2.0では5VDC、500mAとなりました。
    これ以上の電源をUSBケーブルから供給することができません。
     
    USB1.1規格の特徴は、以下の通りです。
    ● フルスピードモードで、12Mbps(1.5Mバイト/秒)の高速転送が可能。(USB2.0では480M bps)
    ● USBハブを介して、SCSIのような数珠つなぎ(デイジーチェイン)ではなく
      ツリー状(階層状)の接続を行う。最大127台の装置の接続が可能。
    ● ケーブル長は、最長3m(USB2.0では、5m)。
    ● ハブの接続は、5ヶまで可能(ハブ経由で30mまで延長可能)。
    ● デバイスへの電源の供給: 4.4VDC、100mA以下(USB2.0では、5V、500mA)
    ● 取り扱いが容易:コンピュータの電源やUSB装置の電源が入った
      ままで、USB装置の抜き差し(ホットプラグ)が可能。
      また、USBインタフェースを採用した装置なら、その種類を問わず接続が可能。
    ● 4種類の転送モード
       1. コントロール(Control): デバイスの認識、パラメータの設定。
       2. アイソクロナス(Isochronous): 映像、音声などのリアルタイム転送。
           1ミリ秒毎に最高1,023バイトのデータを転送。最高12Mビット/秒の転送。
           再送がないために一方通行のデータ送信で確実性は保証されない。
       3. インタラプト(Interrupt): マウス、ジョイスティック操作などの低速リアルタイム転送。
           1.5Mビット/秒での転送。
       4.バルク(Bulk): プリンタ、モデムなどの不定期的大量データ転送。
           上記2つのモードを持つ機器のデータ転送が行われていないときに実行。
     
    ■ USB2.0規格
     2000年4月、USBが高速になってUSB2.0となりました。
    USB2.0の通信速度は480Mbpsとなり、USB1.0より40倍もの高速通信を可能にしました。
    この速度は高速通信を目的に作られたIEEE1394aをも抜き去るスピードでした。
    USB2.0では、アイソクロナスモードにおいて125us単位で1,024バイトのマイクロフレーム転送を行います。
    このモードで8.192MB/sの転送を実現しました。
     
    以下にUSB1.xの規格から変更された主だった項目を挙げます。
    バージョンアップの根底は、従来のUSB1.xの環境をそのままにして、より高速通信を可能にし信頼性を向上させたことです。
     
    【USB2.0への変更点】
      ・ 転送速度: 480M bpsと高速になった。USB1.xで採用された12/1.5M bpsの転送と混在できるようにしている。
      ・ 互換性: USB1.xと互換性を維持するために、ケーブルやコネクタは変えない。
      ・ データ信号: USB1.xでは、3.3V差動信号。USB2.0では400mVの差動信号のLVDSとなった。
      ・ コントロール転送: USB1.xでは、8/16/32/64バイト。USB2.0では64バイトのみとなった。
      ・ インターラプト転送: USB1.xでは、1 〜 64バイト。USB2.0では1 〜 1024バイトとなった。
      ・ バルク転送: USB1.xでは、8/16/32/64バイト。USB2.0では512バイトとなった。
      ・ アイソクロナス転送: USB1.xでは、1 〜 1023バイト。USB2.0では1 〜 1024バイトとなった。
      ・ デバイスに供給する電源: 5V、500mAとなった。
     
     
    ■ 接続認識
     USBの問題を強いてあげるとすると、たくさんの機器が接続できるために通信上の安定性が損なわれたり、通信スピードが遅くなったり、そして末端に接続した機器の認識が不安定になることです。
    USB通信の大きな特徴の一つに、デバイスをホストがすべて管理していることがあげられます。
    つまり、通信はホストを頂点としたツリー構造となって管理がトップダウンで行われています。
    この特徴がよくもあり問題ともなるところです。
    SCSIなどは、ホストの管理が厳しくないので機器間で直接データ伝送ができます。
    IEEE1394は、SCSIの後継として開発されたので直接接続ができます。
    USBは、ホストが中心になってデバイスが絶えず通信可能かどうかチェックしています。
    USB1.1では、1.5usの時間をおいて通信がとぎれるとデバイスが切り離されたと解釈します。
    また、デバイスが接続されたときにホストは127個のアドレスの一つを割り振ります。
    USBに流れるデータはパケットになっていて、これにホストが割り振ったアドレスをつけて送り出します。
    アドレスに指定されたデバイスは、そのパケットを受け取ります。
     
     USBが出回った当初は、デバイス間のコンフリクトがよくあったことが思い出されます。
    つまり、二種類のマウスを接続すると一方のマウスが動かなくなったり、マウスを外して別のポートに接続すると動かなくなってしまったりと認識に問題がありました。
    今(2006年〜)は、かなり改善されてそうしたプリミティブな問題は少なくなりました。
     
    このようにUSBはパーソナルユースではとても使いやすい反面、基幹ユースではお奨めできません。
    基幹ユースでのネットワークは、イーサネットに一日の長があります。
     
    ■ USBに使われるコネクタ
     USBには、以下に示すコネクタが使われています。この中でタイプAとタイプBがもっとも一般的なものです。
    USBの信号線はとてもシンプルであり、標準USBは4本の信号線しか使っていません。
    2本がツイストペアの差動信号線で、残りの2本が機器に供給する電源ラインです。
    極めてシンプルな結線で高速通信が行われているのは驚きです。
    USB経由で供給される電源は、5V、500mAであるので2.5Wの電力を機器へ供給することができます。
    ハードディスクドライブやプリンタは、2.5W以上の電源を必要とするので、この場合はこの電源ラインからではなく別途電源を供給する必要があります。
     

     

    ■ USB3.0規格
     USBは使い勝手が良いので技術開発の取り組みも速く、2009年末にはUSB3.0規格の製品が登場するようです。
    USB3.0は、USB2.0の10倍強の5Gbpsの通信速度を持っています。
    ケーブル長は5mから3mと短くなったものの、ギガイーサネットよりもIEEE1394よりも高速通信ができる性能です。
     
     USB3.0は、より高速のデータ通信を達成する目的で2008年11月17日にversion1.0が決められました。
    製品は2009年暮れ頃に出ると予想されています。
    これらの製品は、当面、パソコンでは拡張ボードとして供給され、周辺機器装置はこれに接続して使うものと思われます。
    パソコンに標準装備されるのは、2011年以降と言われています。
     
     2010.07の時点では、USB3.0対応のHDD、PCI-Expressカード、PCカード(ExpressCardスロット)、ケーブルが市販されています。ハードディスクのデータ通信装置での使用から始まっています。
     
     USB3.0の最大の特徴は、データ転送速度が5G bpsになったことです。
    この速度はUSB2.0の10倍以上に相当します。
    データ転送の高速度化を実現するために、新しいコネクタを作って10ピンとなりました。
    右図のコネクタは、Micro-Bコネクタの上位互換性を持ったUSB3.0のものです。
    これはUSB2.0で使われていたMicro-Bコネクタに新たに5ピンの信号線をもうけて、ここに2対4線の送信線を走らせています。1ピンから5ピンは従来のUSB2.0で使われているピン配列です。
    このピン配置からわかるように、USB3.0では送信と受信を別々に行う全二重通信となっています。
    USB2.0までの通信線は1対(2線)でしたから半二重通信でした。
     電源供給ポートは、従来の1ピンと5ピンで行っています。
    供給できる電源は、USB2.0の500mA(5V)から900mA(5V)と80%アップしました。
    USB3.0ではケーブルの長さに規定はなく、送信帯域が確保できるケーブルであればどんな長さでも良いとされています。
    しかし、メーカが保証して販売するケーブルは最大3mと言われています。
    これはUSB2.0の5mよりも短い長さです。
    通信周波数が高いので、あまり長くはできないものと思われます。
     USB3.0の高速通信で恩恵を受けるのは、デジタルムービカメラの映像通信やSSD(半導体メモリ)装置です。
    デジタル映像の世界ではHDMIによる映像の送受信が普及してきていますが、USB3.0はそのHDMIの領域に踏み込んだ速度性能と言えます。
    コンピュータの世界では注目すべきものと言えましょう。
     
    【2012.08のメモ】
     2012年夏の時点では、販売されているパソコンには2系統程度のUSB3.0が装備され、残りはUSB2.0が装備されているようです。
    こうしてみる限り、USBはマウスやキーボード、プロテクトキー、プリンタなどの低速度通信で十分な機器に使われていて、高速対応はごく限られたもので十分なようです。
     Macintoshでは、ついぞUSB3.0ポートを装備せず、高速通信の機器には彼らが採用したサンダーボルトを使う方向に舵を切っているようです。
     
     
     
    【D端子(D-Terminal)】(パラレル通信) (2007.04.16)(2009.11.07追記)
     D端子は、家庭用ビデオ機器に使われている映像端子です。
    コネクタの形が「D」の文字に似ていることからD型端子と呼ばれました。
    Digitalの意味のD端子という誤解を招きやすい名前のためにデジタル転送と思われがちですが、アナログ信号です。
    従って、デジタル機器でD端子で出力する場合は、デジタル信号をいったんアナログ信号に直して受像機器に送っていることになります。
     端子は、7ピンx2段の合計14ピンで構成されています。
    内訳は、輝度信号(Y信号)と色差信号(Pb、Pr)の3つの同軸ライン(6信号ライン)と3系統の制御信号(識別信号)(3信号ライン)、それに一つのホットプラグ検出信号(2信号ライン)の合わせて11信号ラインとなります。
    14ピンのうち、残りの3ピンは予備です。識別信号(3系統)にはグランドラインが割り当てられていないため、外被(FG = フレームグランド)がグランドになっています。
    コネクタの形状からわかるように、BNCやRCAのような同軸シールド構造をとっておらず、コネクタ部での電磁シールド効果が崩れています(ケーブルには同軸ケーブルが使われています)。
    このコネクタは、当然ノイズに対する配慮が弱いので長いケーブルでは信号が鈍ったりノイズが入りやすくなります。
    しかしBNCコネクタやRCAコネクタより取り回しが良いので、短い長さの映像信号ケーブルとしてこのタイプが普及しました。
     
     D端子は、JETA(社団法人 電子情報技術産業協会)によって映像コネクタ及び映像ケーブルの仕様が決められました。
    これは日本独自の規格であり、世界標準にはなっていません。
    日本で販売されている現在(2007年)のテレビにはすべて取り付けられています。
    以下の表示にあるD1〜D5は、放送局用のデジタルVTRの規格(D1-VTR〜D5-VTR)と混同しがちになりますけれども、両者の関連性はありません。
     
    表示
    映像フォーマット
    D1
    480i
    D2
    480i、480p
    D3
    480i、480p、1080i
    D4
    480i、480p、1080i、720p
    D5
    480i、480p、1080i、720p、1080p
    i はインターレース、p はプログレッシブを示す。
    映像フォーマットの数値は、画像の縦の画素数を示す。
     
     
     右上の写真は、我が家のテレビについているD端子です。
    D端子の外観はD1からD5まですべて同じなので、どの映像フォーマットに対応しているかわかりません。
    したがって、テレビにはどの映像フォーマットに対応しているかが明記されています。
    我が家のテレビは、D4まで対応しているので1080iか720pのハイビジョン映像をこの端子を通して見ることができます。
    従って、このテレビでは1080pは見られないことになります。
    プレイステーション3のような高級ゲーム機は、D5の出力を持っていてハイビジョン画質を提供しています。
     
     D端子は、以下に述べるHDMI端子の出現とともにその存在が危ぶまれています。
    その理由は、D端子ではアナログ信号のためセキュリティのプロテクトがかけられなかったり、画質が思うように向上しないという問題があるからです。
    また、高品位のアナログ出力を持つ映像機器の販売を中止するという動きも活発になってきているため、D端子を装備せずにHDMI端子の受像機器になっていく可能性も大きくなっています。
     
    【HDMI(High-Definition Multimedia Interface】(パラレル通信)(2007.04.16)(2009.10.02追記)
     HDMIは、家電向けAV機器向けに開発されたデジタル通信の規格です。
    日立、東芝、松下、ソニー、フィリップス、トムソン、Silicon Image社7社が中心となって2002年12月に規格化されました。
    HDMIは、コンピュータディスプレイ接続方式のDVI(Digital Visual Interface)規格をベースに、音声伝送機能や著作権保護機能、色差伝送機能を加えて拡張したものです。
     
    この端子が装着されたAV機器は、2006年以降から出荷され始めたので、それ以前のAV機器では装着されていないものが多く、2006年12月ソニーのPlayStation3(家庭用ゲーム機)で標準装備されて話題となりました。
     
     HDMIは、ケーブル1本で最大5Gbpsの伝送速度を持っていて、非圧縮のデジタルハイビジョンの伝送が可能です。
    HDMIで採用された高速データ通信方式は、TMDS(Transition Minimized Differential Signaling)というデジタル伝送技術であり、1990年代後半にコンピュータ用液晶モニタに接続する映像信号(DVI)に採用されました。
    この信号伝送技術が、HDMIにも採用されました。
     
     この技術は差動信号を使っているので長い距離を伝送させるのは不得意で、1.5m〜3m程度のケーブルが中心となっています。
    2007年には10m長のケーブルが発売されました。
    HDMIでは、信号ピンが19ピンあります。
    その内訳は、TMDSの映像信号線が3対(6線)とそれぞれのシールド線(3線)、クロック信号が1対(2線)とそのシールド線、それに電源と制御線などから構成されています。
    3つの映像信号線は、RGBの映像信号であり、これをクロック信号に合わせてデジタル信号で伝送する仕組みになっています。
    アナログビデオ端子(上写真)とデジタルビデオ端子(DVI)(下写真)

    デスクトップパソコンではデジタルビデオ端子が普及しているが、ノートパソコンの付属モニタ出力や液晶プロジェクタの端子には依然として上図のアナログ端子が使われている。

     
    ■ TMDS(Transition Minimized Differential Signaling)
     TMDSは、高速デジタル通信を目的としたシリアルデータ通信です。
    信号は差動信号を使っています。
    TMDSは、シリコンイメージ社(Silicon Image Inc.)が開発したもので、デジタル映像分野で採用されてきました。
    これは、同社がフラットパネル・ディスプレイとビデオカードを接続する目的で開発し、PanelLinkという名前で1997年に開発したのに始まります。
    この技術がデジタル映像信号であるDVIに採用されて、HDMIにも採用されました。
     
     TMDSと同じ高速デジタル通信を行うものに、米国National Semiconductor社が開発したLVDSがあります。
    両者は、共通した部分(差動信号を採用)がいくつかありますが、TMDSは既存のCMOSデジタル素子を使った3.3V信号ルールなので、安価にできるメリットがあります。
     
     この技術を使ったHDMIは、5Gbpsの通信速度を達成しているのでこの素子で1チャンネルあたり1.65G bpsの映像信号を送っていることになります。
     
     
    【DVI(Digital Visual Interface)】(パラレル通信)(2009.10.01記)(2009.10.07追記)
     アナログ信号が主体であったコンピュータ画面表示を、デジタル信号に置き換えたのがDVIです。
    映像信号は、何度も述べているように非常に広帯域の信号であり、コンピュータ表示画面といえども2000年ぐらいまではアナログ信号が中心で、D-sub15ピンを用いたVGA端子(アナログ信号)が圧倒的に使われていました。
    これは、IBMがパソコンを発売した1981年から続いています。
    2009年にあっても、液晶プロジェクタの入力端子はVGA端子が主流です。
    講演会やセミナーで使う液晶プロジェクターは1,280x1,024画素程度なので、アナログ映像端子でも十分なのかも知れません。
    ちなみに、2009年の時点で市販されている1,920 x 1,020画素相当の液晶プロジェクタの入力端子にはDVI端子はなく、代わりにHDMI端子がつけられています。
     
     液晶プロジェクタに使われている他の入力端子としては、旧来のVGA端子(コンピュータ接続用)とRCA端子(アナログビデオ端子)、それにS端子(アナログビデオ端子)が装備されています。
    ノートパソコンに装備されている外部接続用モニタ端子は、2009年にあってもハイエンドモデルでない限りほとんどVGA端子となっています。
     
     ノートパソコンでDVI端子を最初に標準装備したのはアップル社の製品です。
    2002年に発売されたPowerBook G4でDVI端子が標準装備されました。
    アップル社のマッキントッシュは、グラフィック関係のユーザが多く、マッキントッシュ専用のフラットディスプレー(Cinema Display、1999年)の入力端子にすでにDVIが装備されていました。
    アップルは、これをDVIと呼ばず、アップル独自にアレンジしたADC = Apple Display Connectorと呼んでいました。
    このデジタル端子をノートパソコンにもいち早くDVI端子を標準装備したものと思われます。
    アップルは、2002年以降、彼らが発売するノートパソコン(PowerBook、MacBook、MacBook Pro、MacBook Air)のすべてにDVI端子(サイズを小さくしたmicro DVIやmini DVI端子)を装備させています。
     
    ■ DVI規格
     DVIは、液晶ディスプレーの登場とともにデジタル信号伝送が本格化した1994年に規格化され、1998年にTMDS技術を使ったDVI端子のモニタが市販化されました。
    DVI規格そのものは、DDWG(Digital Display Working Group)というコンソーシアムによって1999年4月にRev.1.0として制定されました。
    DDWGは、インテル(Intel)、シリコンイメージ(Silicon Image)、コンパック(Compaq、現HP)、富士通、HP(Hewlett-Packard)、IBM、NECが参加した団体です。
    DVIの根幹技術は、シリコンイメージ社が開発したTMDS(Panel Link)でした。
    この技術は、2002年12月に開発されたHDMIにも使われました。
    DVIでは、テレビ放送のような画素数と映像周波数の縛りがないので画素数と周波数の制限は規定の帯域内で自由に選ぶことができました。
     
     DVIを採用した液晶モニタは、高画素で鮮明な画像を提供しました。
    DVIでは映像送信に圧縮技術を使っていません。
    1画素RGB各8ビット、計24ビットデータをそのまま伝送しています。
    この映像信号にコントロール信号(クロック)がついていて、この信号に従って1画素ずつ表示しています。
    高画素表示を行う場合は、帯域が不足するのでもう1系統のRGBラインを足してデュアルモードで表示しています。
    シングルモードでの画像は、1,280 x 1,024画素@85Hz、もしくは、1,920 x 1,080画素@60Hzまでの伝送が可能です。
    それ以上の画像に関してはデュアルモードとなり、非圧縮データで最大3,840 x 2,400画素@33Hzまでのデジタル転送を行っています。
     
     DVI規格では、同軸ケーブルを使っていないのでケーブル長を長くすることができず、最大5mと決められています。
     
    ■ DVI端子(パラレル通信)
     DVI端子は、上右の下図に示すように24ピンのデジタル信号ラインとC1〜C5のアナログ信号出力で構成されています。
    デスクトップパソコンには画像ボードにこの端子が装備されています。
    本体(マザーボード)は、従来のアナログVGA端子が装備されています。
    このVGA端子は表示能力が低く非常時に使うモニタ出力です。
    液晶プロジェクタの場合、ほとんどがDVI端子を備えていないので、DVI端子にあるアナログ信号を使うため変換アダプタを使って接続します。
     
     変換アダプタは、DVI端子に割り当てられているアナログ信号のC1〜C5ピンを使っています。
    これはアナログ信号ですから、当然画質も悪く高画素のものは送れません。
     DVIのデジタル信号は、TMDS技術が採用され、赤、緑、青の3信号成分とクロック信号で構成されています。
    信号はツイストペアケーブルによる差動信号が使われています。
    赤、緑、青の各信号はコネクタピンの左端の縦列2つを使っています。
    すなわち、赤が1と2ピン、緑が9と10ピン、青が17と18ピンに割り振られています。各信号ピンの隣のピン(3、11、19ピン)はそれぞれのシールドピンに割り当てられています。
    シールドピンを挟んだ隣の2ピンはデュアルモードで使う際の赤(20、21)、緑(4、5)、青(12、13)が割り当てられています。
    デュアルモードの信号線のためのシールドピンは、シングルモードで使われているシールドピン(3、11、19ピン)と共用になっています。
     
    ■ DisplayPort(パラレル通信)
     DVI端子は、デスクトップ型PCの画像ボードには標準で装備されるようになったものの、ノートパソコンでは十分な普及を見るに至っていません。
    その理由としては、DVIコネクタが大きすぎること、コストが割高であること、HDMIによって存在価値が薄くなっていること、より高画素表示に対応する規格の必要性が出てきたこと、などがあげられます。
     
     そうした要望に応えるために、DisplayPortが作られました。
    DisplayPortは、2006年5月にVESA(Video Electronics Standards Association)によって1.0が発表されました。
    DisplayPortの大きな特徴は、データ転送速度が10.8G bpsと高速になり、USB程度の大きさのコネクタで15mの伝送ができるようになったことです。
    また、この規格の使用にあたっては特別なライセンス料やロイヤリティが発生しません。
     
     DisplayPortは、DVIやHDMIと互換性があり、変換アダプタの使用により映像信号を送受信することができます。
    しかし、DisplayPortにはアナログ信号出力がないので、従来のVGA端子を持ったディスプレーや液晶プロジェクタには接続できません。DisplayPortの信号線は20ピンで構成されています。
    内訳は、レーンと呼ばれる4系統の信号線とグランド線 [ 4 x (2+1) = 12線 ] 、予備信号線が1系統とグランド線 [ 2+1= 3線 ] 、ホットプラグ線、DCパワー線、グランド線3線の20ピンとなっています。
     
     この規格は、2009年の時点で、画面表示が水平1,400画素を超えるDellなどのノートパソコンの外部映像端子として装備されています。
    ソニーのVAIOにはこのポートの装備はなく(DVI端子もない)、HDMIの装備に特化しています。
     
    【仕様】
     ・転送速度: 最大 10.8G bps(2.7G bps x 4レーン)
     ・レーン数: 4レーン(4ペアの差動信号ライン)
     ・各色階調度: 最大16ビット(RGB3色)
     ・コネクタピン数: 20ピン
     ・音声信号: 転送可能
     ・伝送方式: 8b/10b
     ・ケーブル長: 最大15m(1920 x 1080画素@24ビット/画素、60Hz時)、フル帯域では2m長。
     ・DVI、HDMI変換伝送: 可能
     ・ライセンス料: 無料
     
     
      
    【HD-SDI(High Definition - Serial Digital Interface)】(シリアル通信) (2008.06.19記)(2008.07.02追記)
     HD-SDIは、1994年に開発されたデジタルハイビジョンの通信規格です。
    放送局のハイビジョンカメラ、VTR、編集機器間を接続する時に使われています。
    従って、我々一般のコンシューマー向けではありません。
    その証拠に一般のテレビ受像機、DVDレコーダにこの端子はありません。
     
     この規格に使われているケーブルのコネクタには、BNCコネクタが採用されています。
    アナログ放送時代のケーブルの取り扱い勝手を踏襲したと思われます。
    このケーブルを使って、1080i(1080本のインターレース)のデジタルハイビジョン信号をおよそ100m程度まで伝送することができます。
     
     HD-SDIでは、1.485Gbpsの通信を確保しています。
    ハイビジョンのデジタル信号をHD-SDIと言っているのに対して、通常の画像のデジタル信号(480i、480p)をSD-SDI(Standard Definition - Serial Digital Interface)と呼んでいます。
     ハイビジョン放送を始めた当初の映像機器は、たくさんの信号ケーブルを使ってパラレル転送を行っていました。
    しかし、ハイビジョンカメラを普及させていく場合、ケーブル配線やケーブル自体のコスト高が懸念され、1992年4月にシンプルなケーブル配線によるデジタルハイビジョン信号規格が着手されました。
     この時に指導的役割を果たしたのが放送技術開発協議会(BTA)で、2年後の1994年4月にHD-SDIの規格制定がなされました。
    この規格が米国の映画テレビ技術者協会(SMPTE = Society of Motion Picture and Television Engineers)で採用されて、SMPTE 292Mとして制定されました。
     
     HD-SDIのケーブルを見ると、BNCプラグを用いたちょっとごつい(太い)ケーブルという印象を与えます。
    5m長程度のケールでは、見た目にBNCケーブルとほとんど変わりません。
    このケーブル1本でハイビジョンの信号を送ることができるのでとても重宝します。
    また、このケーブル1本で100mまでの伝送が可能です。
    しかし、撮影現場では長期間使用していると接触不良を起こしたり、ケーブルの曲げで特性が落ちて画質が悪くなることを心配し、カメラから機器への10m程度の伝送に使われ、それ以上の長さでは、光ファイバーに変換して中継車などに送っているようです。
     
     HD-SDIのケーブルは、外径φ6mmほどの同軸ケーブルで高い映像周波数を送るために、従来の同軸ケーブルに比べて材質を見直しています。
    運用上で頻繁に折り曲げられるケーブルは、使用とともに伝送周波数が落ちてくることも考慮に入れ、通常のBNCケーブルよりも品質の厳しいものが要求されています。
      
     
    【LVDS(Low Voltage Differential Signaling)】 (2006.07.13記)(2009.02.14追記)
     LVDSは、高速データ通信を目的に1994年に作られた信号規格です。
    LVDSは、それまで高速データ通信として一般的であった20MHz信号の送信ができるRS-422差動信号データ通信規格を拡張し、65MHzで30m長の転送ができるようにしました。
    この規格では、RS-422が±2 〜 5Vの信号電圧であったのに対し、その信号電圧の1/10、±250 〜 450mVの極めて低い電圧でデータを転送しています。1V以下の電圧で、よくもまぁ信頼性の高い高速通信ができるものだと感心します。
    低い電圧でデジタル信号を作った理由は、電圧の立ち上がり時間を短くできるために高速通信に適しているためでした。
    しかし、低い電圧ではノイズマージンが低く、ちょっとしたノイズでも信号を犯してしまいそうです。
    LDVSでは、低い信号電圧を採用した代わりにしっかり電流を流す(3.5mA)方式とし、尚かつ、2つの信号線を対としてこのペアの信号ラインに位相が180°ずれた、すなわち反転した信号を流す方式としました。
    これを差動信号(differential signaling)と言い、ノイズに強い信号とすることができました。
    多くの信号線は、1つのラインに信号を乗せて、もう一方はグランドに落として使うことが多かったのですが、LDVSでは2本の線がペアとなって一つの信号を送っています。
     
    ■ 応用
    LDVSを採用している通信規格は以下の通りです。
     
     ・FPD - Link:フラットパネルディスプレー
     ・DSI:Display Serial Interface
     ・RS-644:
     ・SCSI:Ultra-2 SCSI以降
     ・FireWire:コンピュータ通信バス
     ・Hyper Transport: コンピュータ通信バス
     ・SCI(Scalable Coherent Interface)(IEEE1596 - 1992):高速コンピュータバス。Futurebsu(IEEE896)より発展。
     ・シリアルATA:ハードディスク、CD/DVD装置とのコンピュータ内部接続
     ・RapidoIO:チップ間、もしくはボード間の高速転送規格
     ・SpaceWire:欧州で規格化された航空機使用での通信規格
     ・CameraLink:カメラ画像データ転送
     ・DSI(Display Serial Interface): モバイル機器の画像表示用規格
     ・LDI(LVDS Display Interface): LDVSを使った画像表示規格。ケーブル長は10m。2048x1536@60Hz
     
     
    ▲ 差動信号(Differential Signaling)
     差動信号(Differeintial Signaling)の考えは、電話器ができた時代からありました。
    電話信号(アナログ信号)では、音声信号を送るのに2本の電気信号線を用いて、一つには正常の音声信号を送り、もう一方には正常の音声信号と全く反対の、180°位相のずれた信号を乗せています。
    2本の線には、従って、GND(グランド、接地)成分がありません。
    電話器は、数km離れた交換台まで信号を送らなくてはならず、通常の方法、つまり、一方に信号を乗せてもう一方をグランドとする方法では、歪みやノイズが乗りやすいという欠点があります。
    電話線では、音声信号に対して600オームのインピーダンスを持つようにケーブルが作られています(600オーム平衡ケーブル)。
    こうすることにより、電話線をどれだけ長くしても、理論上、電線間の抵抗(インピーダンス)が600オームに保たれるので信号の減衰を低く抑えることができます。
    そうした平衡状態を作って、さらに、両方の信号線に互いに反転した信号を送ることにより、耐ノイズ性を高めることができました。
    この差動信号は音響の世界にも取り入れられていて、マイクからの信号をアンプに接続する回路にも差動信号を使った平衡回路が使われました。
     
     コンピュータの世界でも、耐ノイズ性の高い差動信号はいろいろな所に使われています。
    例えば、マッキントッシュが使い始めたRS-422という信号や、USBケーブル、ツイストペア式のLANケーブル(10Base-T、100Base-T、1000Base-T)、SCSI、シリアルATA、PCI-Expressなどに応用されています。
    差動信号に対する信号として片側ラインだけ信号を送る方式をシングルエンド(single-end)信号と言っています。
    両者の言葉と平衡、不平衡は同じ対義語になります。
     
     
    ▲ ツイストペア(twisted pair)
     差動信号を送るときに使うペアになった2本線は、互いに接触して撚った体裁になっています。
    イーサネットケーブルもLVDSケーブルで使われているペアの信号線は撚って配線されています(右写真)。
    なぜ、このように撚るのかと言うと、ノイズ成分を除去するためです(平衡ケーブルの項参照)。
    電線に電流が流れると、電流の流れる進行方向に対して右ネジの法則に従って磁力線が発生します。
    二本の信号線を離して配置すると、磁力線の方向が相乗されて強まります。
    しかし、ツイストペアにして信号線の配置を互いに入れ違いにすると、互いに弱め合って電磁ノイズを出さなくなります。
    また、外から入る電磁ノイズに対しても、2本の信号線が平行で離れていると電流として流れるようになりノイズが乗るようになります。
    ツイストペアにして信号線の配置を互いに入れ違いにしておけば電流が相殺されます。
     
    このように、信号線を撚り線にすることは、電磁ノイズを外に出さないことに加え、外からのノイズもキャンセルしやすい構造(EMI = Electro-Magnetic Interference 対策)とすることができます。
    ツイストペアは、差動信号(平衡信号)だけでなく不平衡信号を送る際にもノイズ除去の観点から使われることがあります。
     
     
    ▲ LVDSの特徴
     微小電圧による差動信号を使ったLVDSの高速データ通信の特徴は、以下の通りです。
     
    ・ 信号電圧が低い。信号電流が3.5mAで、終端抵抗が100Ωであるため、
      信号電圧は最大350mVである。低い電圧ではあるが、電流をしっかり流すのでノイズには強い。
    ・ 実際のLVDSドライバでは、1.07V - 1.41V(電位差0.24V)のパルス信号を採用している。
    ・ ノイズマージンは、±100mVである。
    ・ 信号は差動電圧信号(differential signal)である。位相の反転した
      信号をペアとして送受信するのでノイズに強い。
    ・ 低い電圧のため高速応答のパルスが作りやすく(電圧の昇降の時間が短い)、
      消費電力が極端に少ない。
    ・ データ転送速度は、ツイストペア銅線で推奨655Mビット/秒。
      
     このデータ通信(LVDS)は、1990年代後半から一般的になり、スーパーコンピュータを使用する長距離高速大容量データ送信に使われ始め、高精細カメラ(メガピクセル、数枚/秒転送)の大容量高速画像通信にも使われるようになりました。
    この規格は、信号だけの規格なので、LVDSを取り入れたRS-644規格が作られたり、他に SCSI やFireWireにも採用され始め、大型液晶(1400x1050画素)の画像データ通信用にも使われました。
     
     LVDSは、計測カメラ用のデータ通信規格であるカメラリンク(CameraLink)にも採用されています。
    LVDSの特徴は、先にも述べたごとく、低い電圧での高速通信が行え、電力も低く、差動信号であるため信頼性が高いことです。
    但し、信号線は2本の線を撚り線にして、互いに反対方向になった信号(位相が180°ずれた差動信号)であるため、データ線の数だけのペア信号線が必要となり、グランド線が共通とならず、信号線が多くなるという欠点があります。
    下の図は、LVDSのサンプル回路です。
    ICメーカでは、LVDSドライバ/レシーバをICパッケージで供給しているので、そうした素子を購入して回路を作ることができます。
    図では、左のドライバ部に信号が入力されると、1.41Vで互いに位相の異なる信号作り出して送り出し、これをLVDSレシーバで受け取って、再び入力信号と同レベルの信号に変換出力しています。
    ドライバーとレシーバの間は、ツイストペアラインで30mまで延ばすことができ、65Mbpsの信号を送ることができます。
    ツイストペアラインはレシーバの手前で100Ωで終端させておく必要があります。
    これは、レシーバ部にはほとんど電流が流れないので(入力インピーダンスが高いため)、100Ωで終端させてしっかり電流を流す回路とし、信号波形が歪んだり遅れが出るのを防ぐ意味があります。
    LVDS素子は、CMOS技術によって作られています。
     
     

     

     
     
     
     
     
     
     
    【カメラリンク(CameraLink)】(パラレル
    通信)  (2006.06.24記)(2010.07.07追記)
     カメラリンクは、一般的な通信規格ではなく工業計測カメラ専用のデータ通信統合規格です。
    従って、パソコンに標準で装備されるものではないので、コンピュータに接続するにはカメラリンクPCIボードやPCカードをパソコンに装備してカメラリンク出力を持つ計測カメラと接続します。
     
     工業計測カメラは、規格の統一が図りにくい製品で、メーカが独自に画像通信ケーブルやコネクタを採用して販売する傾向にあります。
    多種多様なケーブルやコネクタ、それに画像を取り込む画像通信手順が個別になっていたのではユーザが困るだろうということで、米国のカメラメーカであるPULNiX社(2003年4月よりJAI PULNiX社 → 現JAI社)の働きかけで、画像ボードメーカ、ケーブル・コネクタメーカ、ICメーカらが中心となって2000年10月にCameraLinkの規格化がなされました。 
     
     カメラリンクは、まったく新しい規格というわけではなく、従来、カメラメーカが個々に採用してきた最新技術をとりまとめて規格化し、メーカ(カメラメーカ、画像ボードメーカ、ケーブルメーカ)間での製品の互換性を良くしようというとしたのが規格化の動きでした。
     
    ■ LVDSとチャンネルリンク
     カメラリンクでは、転送信号にLVDSを採用しています。
    LVDSでは、2本の信号線(1対)で1つのデータを送るために、つまり、グランドを共通にした信号線ではないために、パラレル(並列)でデータを送る場合には、信号線の数が多くなるのが欠点でした。
    この問題を解決するために、パラレル信号を高速シリアル信号に変換する技術(チャンネルリンク = Channel Link)を採用して、伝送ケーブルの本数を少なくしました。
    チャンネルリンクは、米国National Semiconductor社が開発した技術です。
    このチャンネルリンクとRS-644(LVDS)の技術をベースにして、信号形態のみならずコネクタ・ケーブルのハーネスにいたるまでを規格化し、互換性を持たせるようにしました。
     
    ■ 概略仕様
    以下にカメラリンクの概略仕様を示します。
     
      ・伝送データは、28ビットのパラレル信号を8ビット単位で
       一つにまとめた3対のシリアルデータ(A/B/Cポート)と、
       4ビットステータスデータの1対に変換している。
       データはこれらを合わせて4対となる。
      ・上で述べた4対のシリアルデータに、1対のクロックデータ
       を加えた5対のデータ線で構成される。
      ・ケーブルは複数本の使用が可能となっており、データ数の
       多い画像通信では2本、もしくは3本での使用が可能。
      ・クロックは、66MHz(最高85MHz)が基本。
       パラレル伝送のためトータルデータレートは、
     
         1.93GHz(2.35GHz max.)
          = 1.93Gbps(2.35Gbps max.)
     
       となる。この転送速度は、28ビットのパラレル信号を
       基本としたBaseモードの速度であり、複数のケーブルを
       使ったMediumモードやFullモードの場合には、より高速
       な転送を可能にする。
      ・Base/Medium/Full モード
       Baseモードでは、24bitデータと4bitのステータスデータ
       の転送を行い、Mediumモードでは倍の48bitデータを送り、
       Fullモードではさらに16bitデータを追加した64bitデータ
       を転送する。
      ・コネクタは、3M社の26ピンコネクタ(MDR-26)を採用。
       また、カメラの小型化に伴い、小さいコネクタ
       (ミニCLに従ったSDR)が規格化された。
      ・ケーブル長さは、推奨で最長10m。

     

     
      上図に、カメラリンクの構成を示します。ケーブルは1本での使用が基本で、2本まで使うことができます。
    1本のケーブル使用がBaseコンフィギュレーションと呼ばれるものです。
    データを高速で送るには2本同時に使います。
    この時は、Mediumコンフィギュレーションか、Fullコンフィギュレーションとなります。
     
    Medium/Fullコンフィギュレーションで使用する場合は、ケーブルを2本同時に使用することももちろん、カメラ側とフレームグラバ側双方にそのモードが装備されていることが必要となります。
    ケーブルのコネクタは、両方とも3M社のMDR 26ピンオスコネクタになっていて、方向性がなくどちらを接続しても問題ありません。
    ただ、Fullコンフィギュレーション仕様のカメラをBaseコンフィギュレーションで使う場合は、正しくBaseのレセプタクルに挿入する必要があり、フレームグラバ側にもBaseのレセプタクルに結線する必要があります。
     
     カメラやフレームグラバには、単に形状が同じレセプタクルが二つついているだけのものがあり、Baseであることの明記がなされていないので、ケーブルを間違って結線することがよくあります。
    上の図を見ると、Baseコンフィギュレーション部にカメラコントロールやシリアル通信機能がつけられていてMedium/Fullではデータ転送ポートだけなので、間違った結線をすると正しい通信ができなくなります。
     
     カメラリンクでは、図を見ればわかるようにカメラへの電源は供給されておらずデータ通信だけです。カメラ電源は別途用意しなければなりません。
     
     
     
    【PoCL(Power over CameraLink)規格】 (パラレル通信) (2006.09.02記)(2009.08.14追記)
     PoCLは、上で述べたカメラリンクの派生規格でカメラリンク自体にカメラに供給する電源を組み込んだ規格です。これは、2004年8月に規格化の動きが始まり、2007年2月に規格化されました。カメラリンクは米国のFAカメラ(計測用カメラ)メーカが中心となって策定しましたが、PoCL規格は、日本のメーカが中心となって策定されました。
     Factory Automation(FA)分野で使われているカメラは、日本の場合、NTSC(RS170)規格に準じたアナログ信号による機器が圧倒的なシェアを持ち、米国で主流になってきていたデジタルカメラへの移行は簡単には進んでいませんでした。これはとりもなおさず、アナログカメラが安価であったこと、30コマ/秒での撮影、ストロボなどを使った同期撮影、データ取得、画像処理体系が整ってしまったこと(デジタルで30コマ/秒は高価であったこと)が理由として挙げられます。しかし、2007年頃より、デジタルカメラのデータの転送速度や処理装置の性能が追いついてくると、デジタル化への動きが加速されて行きました。
     デジタル化へ移行する場合、CameraLink規格は魅力あるものでした。しかし、アナログ信号でシステムを構築してきたユーザやメーカにとっては考慮しなければならない問題がありました。すなわち、カメラリンクでは、カメラへ供給する電源が別になっていて、小さくなったカメラにカメラリンクコネクタとは別の電源コネクタを配置しなければなりませんでした。その点、アナログカメラには、ソニーが採用したヒロセの12ピンコネクタがついていて、ここには電源、ビデオ信号(アナログ信号)、制御信号などが組み込まれていて、1本のケーブルをカメラに接続するだけで配線ができました。従って、もしカメラリンクにカメラ電源を入れ込むことができ、カメラ寸法も従来のアナログカメラと同じサイズであるならばデジタルカメラへの移行をスムーズに行うことができます。スペースに制約が多いFA検査装置では、カメラサイズが一定に保たれることは大きな魅力です。こうした素朴な要求がこの規格を生み出しました。
     また、カメラから送られてくる映像データは、ユーザが開発した画像処理ソフトによって処理されるために、画像処理装置は現行のものを流用したい要求があります。つまり、カメラをデジタルに代えた時、そのデータを受ける画像ボードが旧来のものと互換がとれるようなPCIバスボードである必要がありました。さらに、デジタル化される画像は、旧来のアナログ画像以上の画質を持つことが求められました。
     新しいカメラリンクの規格PoCLは、2004年、FAユーザが画像ボードメーカ(マイクロ・テクニカ社)へ寄せられた要望から始まったと言われています。規格化への道のりは、カメラメーカである(株)シーアイエスが中心となって、2005年6月に国内のボランティアワーキンググループ(Working Group Japan = WG-jpn)8社が賛同し活動を開始しました。WG-jpnには、画像ボードメーカ(マイクロ・テクニカ、アバールデータ、スタック)、カメラメーカ(シーアイエス、東芝テリー、日立国際電気)、ケーブルメーカ(住友スリーエム)、画像処理装置メーカ(ファースト)が参加しました。
     この規格は、現時点(2009年)でもっとも新しい規格です。
     
     
    【Light Peak(ライトピーク)、Thunderbolt(サンダーボルト)】(シリアル通信) (2010.07.18記)(2012.08.24追記)
     Light Peakは、2009年にインテル社が開発した光ファイバーを使った通信方式です。
    この技術を元にして、アップル社とインテルがサンダーボルト(Thunderbolt)という通信規格を開発し、2011年にMacintosh(MacBook Pro、iMac)に採用しています。
    Light Peakは、桁違いの高速通信(10 Gbps 〜)と長距離通信(100m)が可能であり、旧来の通信方式(IEEE1394、USB、SATA、HDMI)を凌駕するポテンシャルをもっています。
    実際のところ、昨今のコンピュータ通信規格は多種多様なものが現れて、PCの側面や背面にはたくさんの通信ポートが取り付けられています。
    こうした多種のポートを減らす目的に、Light Peak技術が使われる潜在能力を持ち合わせています。
    これは、1990年代の終わりに登場したUSBが、RS232Cやセントロニクス、SCSIの役目を終えさせたのと良く似ています。
     
    Light Peakは、発表後、2012年の時点でも実際の製品があらわれていません
    その能力の高さ故に大いに注目されていることは間違いなく、近い将来製品の発表があると思われます。
     
     この技術から生まれたThunderbolt(サンダーボルト)は、2011年2月に仕様が作られ、同年の終わりにアップル社のiMac、MacBookProに採用されました。
     
    ■特徴
     Light Peakの大きな特徴は、光ファイバーを使った10Gbps〜100Gbpsの超高速度の通信速度にあります。
    これは、USB3.0に比べて2倍から20倍の性能を持っています。
    2009年の開発時点で10Gbpsの性能が出ていて、今後10年に渡って100Gbpsを目標に開発が続けられるそうです。
    ただ、100 Gbpsの速度は、PCI-Expressの規格を越える速度でありこの速度が達成されてもPCに接続する手だてがありません。
    また、10 Gbpsの通信速度を満足できるバスは、現在のところPCI-Express 16xしかないのが実情であり、このバスは主にモニタ用の画像ボードにあてがわれているので、2スロット分のPCI-Express 16xをもつPCが必要です。
     Light Peakが採用する光ファイバーは、コア径125um(外径0.5mm)という太いファイバーを使うために、小さいコア径を持つタイプのような位置合わせに神経を使う必要はなく、簡単な(安価な)ファイバーコネクタを使用できます。
    このファイバーで最大100mの通信が可能です。
    使用するレーザは特に説明がありませんが、赤〜赤外を使用するようです。
     
     通信は、送信と受信の2本の通信線を使っていて、チップにはそれが2系統(4本)装備されています。
    コネクタはUSB、IEEE1394と似たような形状にして簡単な操作で着脱できるようです(この形状はまだ正式な発表はないようです)。
    Light Peak は、IEEE1394のようにディジーチェインで機器間を接続できます。
     
    ■ ファイバー
     ファイバーは、プラチックファイバーを採用しています。
    プラスチックファイバーは安価なので、Light Peakの供給には大いなる追い風だと考えられています。
    2010年3月には、旭硝子がLight Peak用に「FONTEX」という商品名で出荷を始めるとアナウンスしました。
    このプラスチックファイバーは、従来のアクリル樹脂と違ってフッ素系プラスチック(CYTOP = サイトップ)であるため、λ = 650 〜 1300nm の透明度を確保しています。
    アクリルは、C(炭素) - H(水素)結合成分があり、これがこの波長領域の透明度を不十分にしている原因と言われてきました。
    旭硝子のFONTEXは、石英光ファイバーに比べ柔軟性が非常に高く、50,000回の5mmの曲げに対応しているそうです。
    このファイバーは、クラッドがダブルクラッド式となっているので曲げを強くしても光の漏れが少なく良好な信号伝送が行えるそうです。
    伝送距離100mで10Gビット/秒を越える高速信号伝送が可能です。
     
     
    【Thunderbolt(サンダーボルト)】 (2012.08.24記)
     サンダーボルトは、上記のLight Peak技術をもとに銅線を利用した技術で、10Gbpsの通信性能を持つものです。
    アップル社が2011年のMacBookProに最初の搭載をしました。
     
    MacBookProは、以下に示すように、左から
     
    電源ポートをはじめギガイーサネット、FireWire800、サンダーボルト、
    USBポート x2、ExpressCard、サウンド入力、ヘッドホン出力のポート
     
    があります。しかし、HDMIやUSB3.0のポートがありません。
    これらのポートが必要な場合、サンダーボルトのポートからHDMI変換アダプターを使います。
    USB3.0への変換アダプタはまだ出そろっていないため、この場合にはExpressCardを使って変換しているようです。
     
     
     サンダーボルトは、2012年時点では通信ポートの中で最高の通信速度を持っています。
    この規格は、FireWire800やUSB3.0の新しい技術に比べても数倍の性能を持っています。
    現在のところサンダーボルトの通信ポートを装備した周辺機器は、アップルディスプレイと米国カルフォルニアにあるPromise社のPegasusと呼ばれるRAIDストレージサーバです。
    Promise社は、1988年に設立されたRAIDを開発するメーカーです。
     
     
    ■ サンダーボルトの特徴
     
     ・ 双方向 10 Gbps
     ・ 1本のケーブルで2種類のデータ転送(PCI ExpressデータとDisplayPort)
     ・ 6台までの周辺機器と直列接続( = Daisy chain)
     ・ Display Port機器との互換
     ・ 高精度時間同期による低い待ち時間
     ・ PCI expressやDisplayPort専用のプロトコルソフトウェアドライバに対応
     ・ 10Wまでの電源供給
     
     
     
     
    ↑にメニューバーが現れない場合、
    クリックして下さい。

     
     
      
    ■ 画像の保存  (2006.11.09記) (2010.01.14追記)
     画像を記録することはとても大切なことの一つです。記録ができなければ再び見ることができません。
    画像の保存は、多くの人が利用できるように規格化されなければなりません。
    ここでは、画像の規格にはどのようなものがあるのかを考えてみたいと思います。
     画像は1830年の銀塩による写真術から始まり、以来180年の歴史を持つに至っています。
    画像は、以下の一覧表に示す如く大きく分けてアナログ画像とデジタル画像があります。
    また、一枚の静止画写真(画像)と映画やテレビの動画像という分け方もできます。
     映画は、写真ができた60年後の1890年代にカメラと映写機ができ、テレビ放送規格は1940年代にできました。
    デジタル画像は、パソコンの普及とデジタルカメラの普及によって1980年代後半から出発したといえるでしょう。
    画像を扱うに場合には、公共性を持たせる意味で画像の取り込みや保存に関する規格を作らなければなりません。
    フィルム(銀塩)であるならば、フィルムの物理的サイズ(フィルム巾と長さ)やイメージサイズの取り決めが必要であり、テレビ放送であるならば映像信号の規格が重要となります。
    こうした取り決めを徹底しないと、使用者は安心して使うことができなくなります。
    デジタル画像においてもさまざまなファイルフォーマットが作られて淘汰され、現在に至っています。
    ここでは、重要と思われるビデオ画像とデジタル画像の保存規格について説明します。
     

     
     
    ■ アナログ電子記録(動画像)
     デジタル記録が行われる前までの動画像の記録は、アナログ記録が一般的でした。
    アナログ記録のもっとも一般的なものは、映画フィルムです。
    この他には、2011年まで運用されるアナログテレビ放送とVHSに代表されるアナログビデオテープ録画があります。
    また、2000年代前半まで使われていたレーザディスク(LD)VHDもアナログ電子記録でした。
     2000年までの電子画像記録といえば、アナログビデオ信号による録画が一般的でした。
    なぜアナログ記録が一般的であったのかは、テレビ放送の歴史を紐解いて見れば明白です。
    デジタル画像やデジタル放送は、つい最近(2000年以降)のことなのです。
    デジタル記録では、アナログ記録とは異なる高速デジタル処理が必要で、それを行う情報処理はアナログ記録よりも高速なものを使わなくてはなりませんでした。
    つまり、デジタル記録は、高速処理のできるコンピュータが普及するまで足踏みをしていたのです。
    そして、何よりも高速でデジタル録画できる安価な媒体がなかったのです。
     
    【NTSC】
     NTSC信号は、これまでにも何度も述べてきたように、アナログ信号の代名詞にもなっているビデオ(テレビ)信号規格です。米国では、通信規格としても認定され、RS-170として登録されています。この信号を記録するには、市販のVTR(ビデオテープレコーダ)、VCR(ビデオカセットレコーダ)を使います。最近までのコンピュータには、このアナログ信号を入力して、希望するデジタルフォーマットに変換して保存できるものも増えています。放送用は、2011年7月で運用が終わりデジタル放送になります。
     
    【ハイビジョン(High Definition Television / HDTV)】
     NTSC信号による映像よりも高品位なテレビ放送として登場してきたのが、ハイビジョンアナログ信号です。高品位テレビとも呼ばれました。NHKが主導して大きな役割を果たしてきました。この規格ができたときに、これを家庭でどのように保存するかが問題になりました。当時(1994年)は、2200TV本相当x1125走査線@30フレーム/秒もの広帯域情報を記録する装置など市販品として出回っていなかったのです。それでも、業務用には高価ながらハイビジョン用ビデオテープレコーダが市販されていました。当時は、高品位のテレビジョン画像を限られた通信帯域内で送ることが困難であったので、送信時に圧縮して送るMUSE(Multiple Sub-Nyquist-Sampling Encoding system)という技術が開発されました。この技術は、しかし、高速で動くスポーツ報道では画像に残像が残るという問題を抱えました。
     
    ■ アナログハイビジョン規格
     ・ 走査線数: 1,125本(有効走査線数は1,035本。デジタルハイビジョンは1,080本)
     ・ 水平画素数: 2,200画素(有効画素数は、1,920画素。デジタルハイビジョンも1,920画素)
         1画素の大きさは、正方格子ではない。(デジタルハイビジョンは正方格子)
     ・ アスペクト: 16:9 (従来のNTSC画面のアスペクトは4:3)
     ・ 撮像/再生速度: 60.00 フィールド/秒 (59.94フィールド/秒ではない。デジタルハイビジョンは59.94フィールド/秒)
     ・ 圧縮方式: MUSE(Multiple Sub-Nyquist-Sampling Encoding system)
        衛星放送の信号帯域(27MHz)の中に乗せる映像信号は1/3の9MHzが限界であるため、
        圧縮は1/4とされた。    
     
     ハイビジョン放送は、大きく分けてアナログとデジタルの2種類があり、NHKが開発したアナログハイビジョンは、1989年に実験放送が開始され、実用化放送を経て2007年9月で放送を中止しました。デジタルハイビジョンは、衛星放送と地上波デジタルの2方式があります。
     
    ■ アナログ電子記録(静止画像)
    アナログの静止画像というと銀塩フィルムを思い浮かべますが、磁気記録を使ってアナログ静止画像を記録していた装置があります。ソニーが1981年に開発したマビカ(Mavica)です。このカメラは、現在のデジタルカメラの先駆けとなったもので、銀塩フィルムを使わないCCD固体撮像素子を使ったスティル(still)カメラでした。この画像の記録に2インチフロッピーディスクが使われ、FM変調によるアナログ録画を行っていました。再生は、通常のテレビにビデオ端子を接続してビデオ映像を送りました。画質は570x490画素であり、ひいき目に見ても良好ではありませんでした。アナログのビデオ静止画像は、フィルム画像に見慣れたものにとって評価の対象外でした。フィルムカメラマンや放送業界の人たちは、当時、冷ややかにこのカメラを見ていました。しかし、これが来るべきデジタルカメラ時代の黎明と呼ぶべき装置だったのです。
     
    ■ デジタル記録(静止画)
     デジタル画像は、基本的には画像を画素という区割りを設けてそこに濃度(色)情報を記述するという方式を取っています。その記述方式がファイルフォーマットという形になって、さまざまのものが提案されて標準化されました。ここでは、代表的な画像ファイルフォーマットについて特徴を述べます。画像のデジタル化はいろいろな用途から喚起されてフォーマットの提案がなされてきました。それらは互いに競争しながら淘汰され、現在に至っています。
     デジタル画像の前には、銀塩写真のアナログ画像があり、アナログ画像をお手本としながらデジタル画像が作られてきました。また、映画やテレビを中心とした動画像を扱う分野と、写真を扱う静止画の分野ではデジタル化への取り組みが異なっています。動画像では、NTSCのアナログ画像が根底にあり、それに加えてハイビジョン画像がありました。
     したがって、動画像では、1秒間に30フレームで再生し1画面を640x480画素で構成することが標準となりました。これが、VGA(Video Graphics Array)です。
     静止画像では、ライカサイズの画質(イメージサイズ:36mmx24mm、解像力:約50本/mm)が一つの指標となりました。
     こうした旧来のアナログ画像をお手本として、その画像をデジタイズする試みがなされ、以下に示すようなデジタル画像フォーマットが形作られていきました。コンピュータから生み出された画像は、無線放送規格の制約がないので、画素数や濃度、表示速度の制限がなく自由に決めることができました。
     
    【TIFF】(Tagged Image File Format)(てぃふ) (2010.01.21追記)
     TIFFは、静止画像として一般的なファイルフォーマット形式を整えた最初のものだと記憶しています。TIFFができるまでの画像は、各自バラバラで生データフォーマットによる画像保存がなされていました。
    TIFFは、Tagged Image File Format の略です。このフォーマットは、高密度ビットマップ画像(ラスター形式)で、解像度の設定、モードコントロールを可能にしていました。TIFF画像は、最初にモノ画像(白黒画像)ができて、フルカラー(約1670万色)への対応がはかられてきました。TIFFファイルが開発されたのは1986年で、スキャナーの取り込むデータフォーマットとして米国Aldus社(DTPソフト『PageMaker』を開発した会社、現在はAdobe社に吸収)が開発しました。これをMS-DOS が採用したことから一般的になりました。
     Windows の世界で有名なBMPフォーマット(マイクロソフトがMS-DOSで標準でサポートした画像ファイルフォーマット)とTIFFを比べてみると、BMPがどこに何を格納するかというファイル全体のレイアウトが予め決められているのに対し、TIFFではデータの格納場所が始めから決まっているのはファイルの先頭におく8バイト分のデータだけとなっています。この部分には、TIFFファイルであることを確認するための情報と数値データの扱い方、それにファイルに格納されている情報の「一覧表」(IFD = Image File Directory)がおかれています。この一覧表を見て、TIFFファイルを展開するアプリケーションソフトはTIFFファイルの中から必要な情報を引き出します。
     TIFF ファイルは拡張性が高かったので、1990年代は様々な「方言」ができあがりました。そこでTIFFでは、TIFFを扱うアプリケーションは最低限これだけの機能をサポートしなければならないという取り決め、つまり、「ベースライン」を設け、この他の機能は「エクステンション」としてまとめて互換性を高めようとしてきました。
    「ベースライン」には、RGBモード、インデックスカラー、グレースケール、2値化白黒画像があります。
     

    TIFFファイルのサンプル画像。(画像ブラウザソフトは、GraphicConverterを使用)
    画像ブラウザソフトは、ほとんどのファイルフォーマットに対応していて多種類の画像を見ることができる。
    画像ブラウザで画像を開いて「情報を見る」という項目をクリックすると、
    画像の情報が表示され、ファイルフォーマットのタイプや画素数、
    色情報、ファイルサイズ、圧縮の有無などを知ることができる。
     
    TIFFファイルを保存する場合、オプションボタンを押すと
    下に示すようなオプション設定ができる。
    TIFFでは圧縮によるファイル設定も可能である。 
     
    TIFFに使われた画像圧縮としては、ランレングス圧縮の一種である「Pack Bits」と、G3・G4ファクシミリで知られたハフマン圧縮系の「MH = Modified Huffman 圧縮」が使われました。
    このほか、エクステンション(予備)として、CMYKモード、YCbCrモード、「LZW圧縮」、「JPEG圧縮」、G3・G4ファクシミリの圧縮方式と互換のある「MH圧縮」、「MR圧縮」への対応が計られました。
    また、一つのファイルに複数の画像を格納できるのもTIFFの大きな特徴です。これにより動画を見ることもできました。
     TIFFは、計測分野では大事なファイルフォーマットです。
    その理由の第一は、8ビット以上の階調が保存できること、
    第二の理由が、計測データがヘッダに格納でき、保管に便利なためです。
    現在(2009年)でも、16ビット濃度を持つ画像の保存にはTIFFファイルが使われています。
     TIFFは、EPS形式に比べてプレビュー画像の解像度が低いので再描画が速いという長所があります。
    しかし、カラー TIFF は、DTP(Desk Top Publishing :コンピュータ印刷版下)には基本的には使えないので、「Photoshop」などでEPS(Encapsulated Post Script)フォーマットにコンバートする必要がありました。 
     
    ■ ランレングス圧縮(RLE)
     TIFFのエクステンションに定義された圧縮手法の一つに、ランレングス圧縮(Run Length Encoding = RLE)があります。この圧縮法は、Run Lengthという名前にも見られるように連続する同じデータを「個数 + データ」というかたちで表す可逆圧縮です。この圧縮は同じ色や階調が続くべた塗り画像にはとても効果的です。この圧縮はシンプルな構造の圧縮方式であるため、写真のような複雑な画像に対しては圧縮率が高くなく、FAX送信などの線画や白味の多い画像に有効でした。Pack BitsはRLEの一種で、情報が連続しないものでは圧縮率が逆に悪くなってしまうことを改善した可逆圧縮手法です。RLEはTIFFの他にもBMPファイルにも採用されました。
     
    ■  ハフマン圧縮(Huffman Coding)
     TIFFのエクステンションに定義されている別の圧縮手法に、ハフマン圧縮(Huffman Coding)があります。これは、米国電気工学者ハフマン(David Albert Huffman:1925 - 1999)が開発した数値アルゴリズムです。ハフマンコードと呼ばれるこの手法は、彼がマサチューセッツ工科大学の電気工学科の博士課程だった1950年に編み出し、1952年に論文として提出したものです。この可逆圧縮手法は、ファイル全体に現れる情報を予め統計的に処理し、現れる数値の頻度の高いものから順番に若い番号を割り振り直して記述する方式です。例えば、1024x1024画素で8ビットの白黒写真で得られた画像があるとします。これは通常の記述では、1.049MBのファイル容量となります。この画像が、例えば白一色の画像だったとすると、1024x1024画素の濃度情報は1つしかとりえません。この白の情報を一番若い数値に当てて、現れないビットは記述しないことにすると、1ビットの情報で済んでしまいます。つまり8ビットの情報が1ビットに圧縮されたことになります。
    ハフマンは、情報に隠されている冗長性を組み直して効率の良い情報変換を見いだしました。
    ハフマンコードは、デジタル信号処理に大いなる実力を発揮し、画像圧縮のみならずFAX通信、ハイビジョンテレビ放送、コンピュータネットワークに応用されています。
     
    【BMP / DIB】(bit Map File / Device Independent Bitmap)(びーえむぴー / でぃあいびー)
     BMPは、非常に有名なファイルです。平易な画像フォーマットであるため、現在でも計測分野で使われています。
    BMPは、Bit Map Fileの略であり、Windowsの標準画像データ・フォーマットです。
    これは、1986年に作られました。
    BMPは、MS-DOSの普及で一般的になり、ワープロや表計算、データベースといったさまざまなアプリケーションでサポートされてきたため、ビジネスやWindowsコンピュータを使う世界で一番普及した画像データ形式となりました。
    BMPは、読んで字の如く画素に階調(色情報)を割り当てたビットマップ(ラスター)形式の画像ファイルです。
    ファイルの拡張子は.BMPまたは.DIB、.RLEです。Windows3.0からは、デバイス独立ビットマップ(DIB:Device Independent Bitmap)という形式に拡張されました。したがって、正しくはDIBファイルと言った方が良いのですが、昔からの習わしでBMPファイルと呼ぶことが多いようです。
     このフォーマットでは、RGBモードで1600万色のカラーモードを持ちます。これは、Windowsの表示・印刷のためのメタ言語(GDI)によって構成されるファイル形式です。4ビットBMPと8ビットBMPではランレングス圧縮(RLE)が行えます。
    この圧縮を行ったBMPファイルの拡張子が.RLEとなります。
    【PICT】(Quick Draw Picture Format)(ぴくと)
     Macintosh が開発された当初、描画方法を規格化したQuick Draw(くいっくどろー、マッキントッシュのグラフィックエンジン)が作り出されました。このQuick Drawを使って開発されたグラフィックフォーマットがPICT(ぴくと)と呼ばれるものです。1984年に出来上がりました。PICTの名前は、Pictureに由来しています。非常に有名なフォーマットでした。QuickDrawで記述された画像は、ビットマップ(ラスターイメージ)だけでなく、ドロー系(ベクターデータ)画像も扱うことができます。クリップボード、DA(ディスクアクセサリ)のスクラップブックの画像データはこのフォーマットで行っていました。『Paint』フォーマットと違い、扱える画面像の大きさに制限がありません。 このフォーマットを厳密に述べると、
      『PICT』 → モノクロフォーマット
      『PICT2』 → カラーフォーマット
    の二種類があり初期は4ビット(8色)でしたが、後に24ビット(約670万色)になっています。
    PICTの表現は豊かな反面、出力に難があり、印刷関係でのトラブルもちょくちょく発生しました。
    特にPost Script とQuick Drawの相性があったため、取り扱いに注意が必要でした。Windows の世界ではあまり使われませんでした。
     PICTは、2009年にあっては、ドロー系のPDFファイルが主力となりPICTの機能を網羅できるようになったため、ほとんど使われない画像フォーマットとなりました。
    ファイルフォーマットによる画質の違い
    TIFF、BMP、PICTのビットマップ画像。圧縮されてないので容量は大きい。しかし、画質は良好。
    圧縮率10%のJPEG画像。JPEG独特のノイズ(モスキートノイズ)が現れる。文字の隙間の背景色が白く褪せたようになっている。JPEGでは圧縮率を高めると、細かい情報がなくなる。
    上の10%に圧縮したJPEG画像を拡大表示したもの。圧縮による画像の荒れが目立つ。モスキートノイズが出るのは、8画素x8画素で圧縮を行うため。
    圧縮ファイルであるGIFの画像を拡大表示したもの。GIF画像は可逆圧縮であり、原画像の情報欠落はない。文字などは、GIFの方がJPEGよりもきれい。同じ圧縮方式にPNGがある。GIFは特許の問題があったが、PNGにはない。
    EPSファイル。EPSは数式で画像を記述している。ビットマップと違って、スケーリングしても最適な画像を表示。従って画像を拡大しても滑らかに表現する。
    【Bayer】(べいやー)【RAW】(ろう) (2007.07.09追記)(2009.08.15追記)
     Bayerフォーマットは、単板式カラーフィルタ内蔵カメラで作られた画像フォーマットです。カラー画像は、本来、RGB3色の情報の組み合わせで作られるのが一般的で、カラーカメラはこの方式を採用して3色を取り込む撮像素子で画像を作っています。Bayerフォーマットは、一枚の撮像素子でカラー画像を作るものです。最近のデジタルカメラ、デジタル一眼レフカメラ、ムービーカメラにはほとんどBayerフォーマットの単板式撮像素子が使われています。この撮像素子からの画像情報をそのまま保存すればBayerフォーマットとなります。日本のカメラメーカはこれをBayerフォーマットと呼ばずに、RAWファイル(生データ)と呼んでいることが多いようです。
     Bayerファイルは、カラー画像ファイルでありながらモノクロ濃淡像のファイルサイズしかありません。BMP/DIBやTIFFファイルの1/3の容量となります。Bayerファイルでは、各画素の色配列が予め決められているので、再生時にこの配列に従って各画素の色を演算して決めていきます。
     1/3のファイルサイズが魅力で、この方式(もしくはRAWファイル)のままで画像を保存することがあります。しかしながら、JPEG画像は、1/10〜1/20程度で良好な画質が得られたり、PNGファイルであれば非可逆圧縮で1/5程度の圧縮が得られるので、これらの画像ファイルを使うことも多いようです。 ただ、JPEGやPNGは、8ビット(カラーでは24ビット)濃度情報なので、カメラが10ビットや12ビット濃度を持つときは、後処理が行いやすいようにRAWフォーマットで保存し、カメラ専用の再生・画像処理ソフトウェアで好みの画像に作り替えることを行っています。
     
     
    【GIF】(Graphics Interchange Format)(じふ)
     GIFファイルは、米国パソコン通信の大手企業Compuserve社が1987年に開発したグラフィック用の画像圧縮ファイルフォーマットです。「ジフ」と呼んでいます。BMPがMS-DOSで採用されてから1年とたたないうちに圧縮画像が世に出たのです。通信利用(インターネット)を考慮しているためファイルサイズが小さく、どんなマシンでも読み込めるのが特徴でした。
     GIFは、本来は256色までの色数の少ない画像データを圧縮するために作られました。256色ですから写真画像は眼中になかったことになります。1987年当時は写真をインターネットで流すことは不可能だったのです。
     GIFでは、基本的に画像データに含まれる色のパターンを見つけだして効率よく圧縮するため、写真のようにたくさんの色がランダムに現れる画像は苦手です。また、可逆圧縮(もとのデータを壊さないような圧縮、Lossless Data Compression)のためファイルサイズはJPEGより小さくなりません。ちなみにJPEG は写真用に作られた圧縮ファイルで、非可逆圧縮方式(Lossy Compression Method)のため、画質を落としてでも画像を圧縮します。したがって、GIFフォーマットで絵などを効率よく圧縮したければできるだけ色数を少なくします。
     GIFは、1990年代前半、すなわちインターネットが画像を大々的に扱うようになって一斉を風靡するようになりました。しかし、開発元のCompuserve社が特許を主張してGIFを使うユーザに使用料を請求するようになると、GIFを使用するユーザが減り、代わって無料で使用できるPNG JPEGユーザが増えました。
     GIFの特許は、2004年で切れました。そのため、GIFを再度使うユーザが戻っては来たものの、その間にPNGやAdobe FLASHなどがGIFの性能を凌駕してしまったので、かつての人気を呼ぶほどにはなっていません。
     
    ▲ GIFの多様な機能
     GIFの一般的なファイル拡張子はgifです。GIFには多様な機能があり、インターレースGIF、透明GIF、アニメーションGIFなどがその例でホームページで代表的な画像フォーマットとなっていました。
    ノーマルGIFフォーマットのWebでの表示は、他の画像ファイルと同様画像を構成している一番上の行の左から右へ上から下へと1画素ずつファイルに書き込まれます。そのためダウンロードできた画素から順番に表示されるインターネットブラウザでは、この順番に表示されます。
     これに対しインターレースGIFフォーマットでは、上から下へ行を順番に1行ずつ書き込むのではなく、1行目、9行目、17行目といった具合に間引いて書き込みます。したがって早い時期に粗い画面を見ることができます。
     GIFの初期バージョンは256色しか扱うことができませんでした。これを解決すべくGIF24と呼ばれるフォーマットができてこれによってフルカラーのGIF保存が可能となりました。
     
    ▲ GIFが採用している圧縮方式(LZW圧縮)
     GIFフォーマットの圧縮は、「LZW圧縮」方式を採用しています。LZW圧縮は米国で開発された歴史ある可逆圧縮方式(Lossless Compression Method)で、辞書を用いた圧縮方式です。辞書を用いるとは、画像を保存する際に、画像データをスキャニングしていき、データ配列を逐次辞書に書き込み、同じ配列がデータ内にあるときは、書き込んだ辞書を参照するという記述にしています。この方法によってデータを圧縮しています。
     この圧縮方式は、最初にこの論文を書いたイスラエルのコンピュータ科学者Abraham Lempel(1936 - )とJacob Ziv(1931 - )の頭文字を取った「LZ」と呼ばれるものがベースとなっていました。これは1977年に発表されました。これを世界初のコンピュータ「ENIAC」を開発したSperry社に1976年に入社したエンジニアTerry A. Welchがさらに改良して、1984年に現在の「LZW圧縮」を完成させました。この圧縮アルゴリズムは、TIFFの他にモデムの圧縮プロトコルであるV.42bisや画像フォーマットのGIF、ドキュメント用のファイルフォーマットPDFとAdobe社の開発した言語であるポストスクリプト・レベル2などで使用されています。Sperry社は、Burroughs社と合併してユニシス社(Unisys Corporation)となったため、「LZW圧縮」形式の特許は同社が保有することになりました。
     
     
    【JPEG】(Joint Photographic Experts Group)(じぇいぺぐ)  (2010.02.13追記)
     JPEGファイルは、Joint Photographic Experts Groupの略です。「じぇいぺぐ」と発音します。一般的な拡張子は、jpgあるいはjpegです。開発にあたった団体名を冠したファイル名です。
     JPEGは、1986年に組織が作られ、6年後の1992年に最初の規格が制定されました。以後いくつかの変更を経て、2010年の時点では、画像フォーマットの標準規格となるくらいに普及しました。
     静止画像の8割近くは、このフォーマットを使っていると言っても過言ではありません。JPEGの登場は、画像品質を一定に保ちながらファイル容量を軽減するという相反する要求をクリアしました。
    ■ JFIF
     JPEGは、JFIFとも呼ばれています。しかし、一般的にはJPEGという名前が使われています。
    JFIFは、JPEG File Interchange Formatの略であり、米国のC-Cube Microsystems社が開発しました。JFIFを書き表した同社のEric Hamiltonは、JPEG団体の責任者でもありました。
    IFIFは、現在のJPEGフォーマットそのものです。
    C-Cube社は、1988年に設立された会社で、画像データを効率よく送るための圧縮技術や専用LSIチップを開発したパイオニアでした。彼らが開発した技術には、JPEGを初めとしてMPEGがあり、それらのデータ処理回路を盛り込んだ専用LSIを製造していました。これらは、1990年代の非力であったパソコンの拡張ボードに採用されて画像データ圧縮の世界を切り開いて行きました。
     JPEGは、GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。画像は、1600万色まで対応しています。
    圧縮は、非可逆圧縮をとるため一度圧縮すると元には戻りません。圧縮率を上げるとファイルサイズが小さくなる反面、画像品質が劣化します。JPEGは、GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。画像は、1600万色まで対応しています。圧縮は、非可逆圧縮をとるため一度圧縮すると元に戻りません。そのため、任意の圧縮率を選ぶことができます。圧縮率を上げるとファイルサイズを小さくできる反面、画像品質が劣化します。規格策定の経緯から見てもわかるように、写真などに適したフルカラー画像フォーマットで、Internet Explorerも対応したことで、2000年代初頭はGIFフォーマットに次ぐ画像フォーマットになり、2010年の時点で最も普及した画像フォーマットとなっています。
     

     
    ▲ 非可逆圧縮方式(Lossy Compression Method)
    JPEGでは、ピクセルデータを8 x 8のブロックに分け、一つ一つのブロックについてDCT(Discrete Cosine Transform = 離散コサイン変換)という手法を用いてデータを符号化します。DCTは、フーリエ変換手法の仲間に入るもので、情報を周波数という三角関数の数式に置き換えるものです。DCTによって変換された周波数成分を分析して処理を行います。8 x 8ピクセルのデータの中で、非常に特徴ある情報(このブロックの画像情報を決定づける変化の少ない重要な要素、周波数の低いもの)だけを最優先で残し、どうでも良い要素(= 周波数の高いもの)をふるいにかけます。
    つまり周波数の高い情報(細かい画像)はここで消されてしまいます。
    JPEGでは、圧縮の度合いがユーザによって決められるので、圧縮率を高めれば細かい情報がどんどんなくなり、最後は8x8( = 64画素分)が一つの情報、すなわちモザイクになってしまいます。
     DCTによって変換された画像は、可逆圧縮の「ハフマン法」と「ランレングス法」を用いて圧縮されます。周波数の高い情報は、DCTによって消されていますから非常に高い圧縮が可能になります。DCTは、音楽ファイルのMP3やソニーの開発したATRAC、デジタルフィルタリング装置など幅広い範囲で使用されています。
     
    ▲ 4:2:2圧縮
     JPEGには、8x8画素の空間圧縮の他に色情報を圧縮する機能もあります。4:2:2圧縮は、テレビ映像信号の4:2:2コンポーネントデジタル信号(ITU-R BT.601)で規格化された色情報の間引き手法です。
    本来は、YCbCr = 4:4:4の24ビットの色情報ですが、色差信号(Cb、Cr)成分を間引きして16ビットとしビット数をかせいでいます。
    色の圧縮には、この他に4:2:0、4:1:1圧縮の設定もできます。この場合の色情報は、それぞれ12ビット情報となります。
    こうした手法により、情報の圧縮をさらに67%から50%(半分)とすることができます。
    ▲ 色情報
     JPEG画像の色情報の基本は、YCbCr表示系でありRGB表示系ではありません。
    YCbCr表示系の方が色の圧縮が行いやすいからです。
    JPEGを開発した当初の色表示は、グレースケール、RGB、YCrCb、YMCKなどが採用されていました。
    しかし、これらは厳密な取り決めがなく、この多様性が逆に互換性の点で問題になっていました。
    JFIFでは、この問題を改めて色の表示にYCbCRを標準と決めて、保存する際の色成分の順序をY、Cb、Crと決めました。
    さらに、この保存にも、それぞれの比率を4:4:4、4:2:2、4:2:0、4:1:1の4種類を設定することができるようにしました。
    ▲ ノーマルJPEGとプログレッシブJPEG
     プログレッシブJPEGは、インタレースGIF同様通信利用を考慮して開発された画像のフォーマットです。国際電気通信連合とISOが共同で開発しました。インターレースGIFより画質が劣りますがファイルサイズをより小さくできます。
     
    ▲ JPEGの問題点
     サイズの大きくなりがちなグラフィックスデータにあって、高圧縮を実現するJPEGは注目度が非常に高く、デジタルカメラの画像やパソコン通信、インターネットでは主流となりました。しかしながら、8x8ブロックによるふるいのかけ方からもわかるように、JPEGはあくまで写真のように自然画像に対して最適化するように作られていますから、イラストや文字ではシャープなエッジ部を殺して、鈍(なま)らせてしまいます。
     また、我々のように画像から計測しようとするものにとっては、エッジをなまらせるJPEGは、誤差を拡散させる何ものでもなく、計測精度を劣化させるという不具合が生じます。計測用の画像ファイルは、TIFF、BMP、GIF、PNGが理想となります。
     
    ▲ JPEG 2000
     JPEG2000は、JPEGの後継ファイルフォーマットです。2000年12月に勧告されました。
     が、2010年の時点にあってもJPEGほどの普及を見ていません。
    この画像フォーマットは、JPEGフォーマットに比べて高画質を維持したまま圧縮率を高める改良が施されていて、JPEGの欠点であったモスキートノイズやブロックノイズ低減に成功しています。
    JPEGが固定の8x8画素で圧縮するアルゴリズムであるのに対し、JPEG2000では、処理画素を可変でき、最大256x256画素を対象として圧縮を行っています。処理対象画素が大きくなった分、圧縮率が上がり、しかもモスキートノイズが出にくくなりました。
    また、JPEGが圧縮アルゴリズムに離散コサイン変換(DCT: Discrete Cosine Transform)を採用しているのに対し、JPEG 2000では、離散ウェーブレット変換 (DWT: Discrete Wavelet Transform) を採用しています。ウェーブレットとは、さざなみのことで、圧縮プロセスを一義的に行うのでなく、画像の細かい変化に対して柔軟に対応する方式です。このプロセスにより、ブロックノイズなどのアラがJPEGに比べて目立たなくなっています。
     このように、JPEG2000はJPEGの欠点を補ったフォーマットなのですが、WindowsのOSが標準でサポートしなかったのがつまづきの発端で、2010年の時点においても普及率はかなり低く、多くのユーザは引き続きJPEGを使っています。
    従って、JPEG2000フォーマットの画像をWebに載せても、ユーザのコンピュータにあるブラウザソフトでは見ることができません。アップル社が販売しているマッキントッシュでは、MacOSでこのフォーマットを標準でサポートしているので、アップルが開発したブラウザソフト「Safari」では、この画像を見ることができます。また、アップルの開発によるiTunesや、iPodで普及を見ているQuickTimeでもこの画像フォーマットは標準で対応しています。WindowsでJPEG2000画像を見るには、プラグインをインストールする必要があります。また、JPEG2000フォーマットは処理が難しく、画像を作るのにJPEG画像処理の5倍から6倍の処理能力(処理時間)がかかると言われています。

     

    【PNG】(Portable Network Graphics)(ぴーえぬじー、ぴんぐ)
     PNGファイルは、Portable Network Graphics ファイルの略です。「ぴーえぬじー」とか「ぴんぐ」と呼んでいます。
    インターネットで一般的になった1987年開発のGIF画像フォーマットには、ユニシス社の「LZW圧縮技術」が使われていて、これには特許料が絡んでおり、1994年以降、同社がその特許料の徴収を始めました。
    これに伴い、「LZW圧縮技術」を使わない新しいグラフィックスファイルフォーマットの研究が始まりました。
    WWWの標準化を行っているグループであるW3C(World Wide Web Consortium)が、GIFに代わるWeb用の画像として1994年に開発したのがPNGです。
    PNGは、GIFが無償で使えなくなったために作り出された画像ファイルフォーマットと解釈すれば良いと思います。
     PNGが開発された経緯からもわかるように、GIFが実現していたほとんどの機能を踏襲しています。
    ただ、アニメGIFは踏襲できませんでした。これは、後にAPNGというファイルフォーマットで実現しています。
    GIFが扱える色は、1ビットインデックスカラーから各色16ビットRGB(合計48ビット)までと幅広く、アルファチャンネル(8ビット)機能も追加されています。アルファチャンネルが追加されると、画像情報は最大32ビットもしくは64ビットとなります。
    アルファチャンネルは、3原色とは独立した補助色情報であり、画像にマスクをかける場合や透明度を指定するときに使用します。
    PNGはまた、インターレース表示や背景画像の透明化にも対応し、高い可逆圧縮を可能にしています。
     
    ■ デフレ圧縮(Deflate)
     PNGフォーマットには、「デフレ圧縮」(Deflate)と呼ばれる特許の制約を受けない可逆的な圧縮アルゴリズムが使われています。「デフレ圧縮」はアーカイバソフト「PKZIP」(1986年)や、「Zip」の作者として知られる米国のコンピュータプログラマーPhil Katz(1962 - 2000)がデザインしたアルゴリズムです。
    この圧縮技術は可逆圧縮であり、LZ77とハフマン圧縮を参考にしています。
    LZ77は、GIFファイルにも採用されているLZW圧縮技術の原型のもので、イスラエルコンピュータ科学者Abraham Lempel(1936 - )とJacob Ziv(1931 - )が1977年に書き表した圧縮手法です。
    この圧縮手法と、ハフマンが開発した圧縮手法の良いところを取って書き上げられた圧縮手法がデフレ圧縮であり、この手法でzip圧縮ソフトウェアが作られました。
    Zipは、現在のパソコンの標準となっている圧縮・解凍ソフトウェアです。
    PNGの圧縮技術は、この手法を採用しています。数ある圧縮ソフトの中で、Zipは速度と圧縮率の高さが秀逸であり、実質ライセンスフリーでもあったことからMacOSやWindowsが採用して急速な普及を見ました。
    これを開発したKatzは、天才プログラマーの名にふさわしい人物でしたが、不摂生な日常生活がたたり38才の若さで他界しました。
    PNGの圧縮技術は、Katzの開発した圧縮手法を採用しているのです。
     PNGは、非常によくできた画像ファイルフォーマットで、可逆圧縮である(圧縮しても画像の劣化が無い)ために利用価値の高いものです。しかし、Windows98では標準でサポートしていなかったため、この画像ファイルを使用したWebでは画像を見ることができませんでした。
    WindowsXPでは標準でサポートしているため問題なく見ることができるようになりました。また、「Paint」と呼ばれるWindowsXPで標準でサポートしている画像レタッチアプリケーションで扱うことができます。
     
     
    【Exif】(Exchangeable Image File)(いぐずぃふ)
    Exifは、Exchangeable Image File の略です。CCD、CMOSなどの固体撮像素子を使った電子スティルカメラ(デジタルカメラ)の普及にともなって、デジタル画像の統一を図るため富士フィルムが発起人となり、日本電子工業振興協会(JEIDA = Japan Electronic Industry Development Association)が1995年10月に策定しました。これはいくつかの改訂を経て、2003年9月にver.2.21と改訂されました。この規格に参画している企業は日本のデジタルカメラを作っているメーカがほとんどです。
     デジタルカメラに採用されている画像フォーマットは、1998年12月、ISOでDCF(Design rule for Camera File system)という仕様が作られて、全てのデジタルカメラメーカがこれを採用するようになっています。
    DCFは、メディアに保存するときのファイルシステムまでを含んだ包括的な仕様ですが、画像ファイルフォーマット自体はExif 2.2に準拠し、それにいくつか変更を加えたものとなっています。
     
     Exif画像の構造は、基本的には通常のJPEG画像形式そのものであり(規格ではTIFFやHD Photoも含まれる)、その中に160x120画素JPEG圧縮サムネィルや撮影情報等のデーターをJPEGの規約に準拠した形で埋め込んだものです。従ってJPEG形式をサポートしているインターネットブラウザー、画像ビュアー、フォトレタッチソフト等を使えば、Exif画像ファイルは通常のJPEG画像として見ることができます。Exif画像フィアルでは、画像データそのものの他に、メタデータ(metadata)と呼ばれる撮影に関する事細かなデータも収録されています。
     
    主なデータ情報は、以下の通りです。
    ・ ExposureTime: 露出時間。逆数値で表示。
    ・ FNumber: 撮影時のレンズ絞り。
    ・ ExposureProgram: マニュアル撮影、自動、絞り優先などのモード。
    ・ ISOSpeedRatings: 撮像素子感度をフィルムで使われているISO感度に換算して表示。
    ・ ExifVersion: ファイルのバージョン表示、Exif2.1ならば0210と表示。
    ・ DateTimeOriginal: 撮影日時。カメラに時計が内蔵されていない場合はスペース。
    ・ ComponentsConfiguration: 画素データ配列表示。
     CompressedBitsPerPixel: JPEG圧縮率の表示。
    ・ ShutterSpeedValue: 露出時間のAPEX換算値。
    ・ ApertureVallue: レンズ絞りのAPEX換算値。
    ・ BrightnessValue: 被写体明るさのAPEX換算値。
    ・ ExposureBiasValue: 露出補正値。
    ・ MaxApertureValue: レンズの最大口径比。
    ・ SubjectDistance: 撮影距離、メートル表示。
    ・ MeteringMode: 露出測光モード= 平均測光、中央重点測光、等の表示。
    ・ LightSource: 使用光源、デーライト。タングステンなどの表示。
    ・ Flash: ストロボ使用、Auto設定などの表示。
    ・ FocalLength: 使用カメラレンズ焦点距離。ミリ表示。
    ・ FlashpixVersion: 画像ファイルがFlashpixである場合はそのバージョン表示。
    ・ ColorSpace: カラースペース。
    ・ ExifImageWidth: 画像サイズ巾。
    ・ ExifImageHeight: 画像サイズ高。
    ・ RelatedSoundFile: 画像データに音声を録音した場合音声ファイル名を表示。
    ・ FocalPlaneXResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり、撮像素子画素と必ずしも一致しない。
    ・ FocalPlaneYResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり、撮像素子画素と必ずしも一致しない。
    ・ FocalPlaneResolutionUnit: 撮像素子の画素の単位。インチかセンチメートルの単位を表示。
    ・ ExposureIndex: ISOSpeedRatingsに同じ。Kodakのみがこのタグを使用。
    ・ SensingMethod: センサーチップ表示。ほとんどのカメラが"2"の単板カラーフィルタセンサー。
    ・ FileSource: 画像ソース。0x03はデジタルスティルカメラ。
    ・ SceneType: 0x01は、直接撮影。
    上の画像は、デジカメで撮影したExif画像とその画像に入っているExifデータ。
    データの詳細を右に示す。
    このファイルから、撮影した年月日と時間、使用したカメラ、撮影条件、ファイル容量など事細かな情報を見ることができる。
    この画像は、マッキントッシュの画像アーカイブソフトウェア「Graphic Converter ver.5.9.5」を使用して閲覧した画面のコピーである。
    (2006.06)

     

    【DICOM】(Digital Imaging and Communications in Medicine)(だいこむ)
     DICOMは、Digital Imaging and COmmunications in Medicine の略です。医用画像(医学で使用されているX線画像、CT画像、NMR画像)を広範囲に使用するために、通信で画像を扱うことを主目的とした統合規格です。フォーマットの拡張子は、.dcmです。
     医学の世界では、X線診断の時代から(フィルム)画像が多く使われてきました。そうした画像の多くは、病院などで保管されることが多く院外に出ることはあまりありませんでした。しかし、CTやNMR画像、超音波画像、通常のビデオ画像、デジタルカメラによる撮影が普及しインターネットも普及するようになると、そうした画像データ及び診察所見データを共通のファイルとして保存閲覧できる要望が高まりました。インターネットで送受信したり、CDやDVDにコピーするという需要が高まってきたのです。
     DICOMは、米国放射線学会(ACR)と北米電子機器工業会(NEMA)が開発し、1993年に正式に承認されました。
     日本では、1991年頃からJIRA(日本放射線機器工業会:医用画像機器業者の団体)が検討を開始し、1994年に採用を決定しました。日本のMIPS委員会ではDICOMに日本語が対応できるように規格を更新し、1995年にはlossless(画像圧縮によっても画像の劣化を伴わない)方式も制定されました。
     欧州ではCEN(欧州標準化委員会、Comite Europeen de Normalisation)が中心となって規格化を推進しました。JIRAは、DICOM規格の実装技術の習得、相互接続試験の実施、および、利用者へのPRを目的として、JMCP95(名古屋、1995年4月)においてMIPS規格-94/DICOMデモを実施しました。JIRAの17社、および、日本医学放射線学会の数グループの参加により、日本でもDICOM規格が確立したことを示しました。
     DICOMフォーマットの根本は、共通化した「入れ子」にあります。X線装置などの診断装置で得られた画像を、できるだけ画像を劣化しないように、かつコンパクトな容量で保存し、併せて患者の履歴(カルテ)も保存して共通で閲覧しようというものです。DICOMで保存されたファイルは専用のViewerで開けて見ることができ、必要に応じて一般の標準画像フォーマット(TIFF、PNG、JPEG、AVI、MPEGなど)に変換保存できるようになっています。
     
     
    【EPS、ai】(Encapsulated Post Script)(いーぴーえす、えいあい) (2009.05.06追記)(2010.03.22追記)
     EPSフォーマットは、Encapsulated Post Script フォーマットの略です。舌を噛みそうな名前ですが、下に述べるポストスクリプト言語で構築した( = カプセルに収めた)画像ファイルフォーマットと言う意味です。EPSFとも呼ばれています。「いーぴーえす」と発音します。
    EPSは、一般的な画像フォーマットではないので馴染みが薄いかも知れません。グラフィックソフト「Illustrator」(Adobe社、1985年〜)が扱うファイルフォーマットと言えばわかりが早いでしょうか。また、世界的に有名になっているPDF(Portable Document Format、1993年開発)ファイルも、下地にEPSフォーマット技術を使っています。
    このフォーマットの拡張子は、.eps、.aiです。
    一般的な画像フォーマットであるWMF(メタファイル)や、マッキントッシュで使われていたPICTがOS用言語で描かれたファイルであるのに対し、EPSはプリンタ言語(PostScript言語)で描かれていることを大きな特徴としています。ポストスクリプト言語は、米国アドビ(Adobe)社が開発したプリンタ言語です。
     同社は、過去にはマッキントッシュ用のレタッチ画像処理ソフト「Photoshop」(1990年〜)を開発しています。EPSファイルは、画像や文字、イラストをレイアウト形式に貼り込んで使用することを前提にしたフォーマットで、汎用性が高いのが特徴です。このフォーマットは、精度の高い出力が可能であるため広告版下用に使われます。Aldus Freehand や Adobe Illustrator などのソフトウェアは、PostScript(アドビ社が開発した言語) データを直接操作するのでEPSファイルとして書き出すことができます。但し、EPS自体は、画像表示できないのでモニタにはPICTもしくはTIFFファイルにして表示させる必要があります。円を描く場合、Windowsの「Paint」などのペイント系ソフトではギザギザの円になりますが、Adobe IllustratorなどのPost Script系の円はなめらかになります。表示画面に合わせて最適な画像を構築するからです。このように、Post Scriptは、使用するプリンタやモニタに合わせて精度の高い出力が可能となります。
     EPSファイルは、ASCII 形式のものと、バイナリ形式の2種類があり、バイナリ形式のものはファイルサイズが半分になります。
    カラーデータを4色(CMYK)分解するには、今のところEPSフォーマットでないとこの4色分解ができません。
     
     右図は、Adobe社の「illustrator」(イラストレータ)という描画ソフトウェアの画面です。図にある黄色地と緑線で示された曲線は、3点のアンカーポイント(曲線上の白丸ポイント)が指定されているだけで、それらの点は隣同士の点とどのような曲線で結ばれているかが定義されています。その定義は、方向線(アンカーポイントから飛び出ている青色線)で決めています。方向線の角度と長さの指定により、どのくらいの曲率でアンカーポイント同士を結べば良いかを決めています。方向線は、マウスのドラッグで簡単に変更することができ、ドラッグしながら出来具合をチェックすることができます。
    指定された曲線は、ベジェ曲線として数式化され、EPSファイル( = aiファイル)として保存されます。
    ベジェ曲線は、フランスの工学者ピエール・ベジェ(Pierre Bezier: 1910 - 1999)が考案した数式曲線です。彼は、機械工学を修めたのち自動車会社ルノーで働き、CAD、CAMの開発を手がける中でベジェ曲線を開発しました。ベジェ曲線は、任意の曲線が数式化できるという特徴があるため、滑らかなフォントの記述として使われています。ポストスクリプトは、こうした数式を使ってフォントを作ったり画像を定義しています。
     
     
    ポストスクリプト(PS、Postscript)  (2010.03.22)
     ポストスクリプト(Postscript)は、PhotoshopやIllustratorと呼ばれる画像レタッチソフトで有名な米国Adobe社が開発したプリンタのためのページ記述言語です。同じようなものに、キャノンの「LIPS」、エプソンの「ESC/Page」、ヒューレットパッカードの「PCL」がありました。こうした言語と、ポストスクリプトの違いは以下の通りです。
     
     ・いち早く開発された。(マッキントッシュができた1880年代)。
     ・プリンタに依存せずに、テキストやグラフィックが印刷できた。
     
     こうした理由から、広告やイラストを扱う分野でポストスクリプトは広く普及していきました。1993年に登場したPDF(Portable Document Format)は、アドビ社のポストスクリプト言語をいかんなく発揮したファイルフォーマットであり、この言語技術によりパソコンによる文書統一という大改革に成功しました。
    ポストスクリプト自体には、ベクターデータ( = ベジェ曲線に代表される数式によるデータ)とラスター( = ビットマップ)データの両形式、それにテキスト印刷に必要なすべてのデータ(フォントの定義、等)が標準化されていて、グレースケールやカラーも扱えるようになっています。
    ポストスクリプトで興味深いのは、バイナリコードではなく、すべてテキストで記述されている点です。これは、プリンタ自体をコンピュータとして見なしていて、プリント内容をテキストで送ってデータを受けるプリンタ側で最適なプリント出力を行うという考によっています。
    この記述は、単なるオペレーションコードではなく、ハードウェアの制御や「if」などのプログラムの制御命令まで用意された完全なプログラム言語でした。
     イーサネットは、この通信のために真っ先に採用されました。1980年代、パソコンが非力な時代になんとも広大な構想を練っていたものだと感嘆せざるを得ません。
     
    【アドビ(Adobe)社】  (2010.03.22)
    今では、世界的なコンピュータグラフィクス会社となったアドビ社(創始者:ジョン・ワーノック、John Warnock、1940.10 〜)も、アップルの稀代の営業マン・スティーブ・ジョブズ(Steven Paul Jobs: 1955.02 〜)に会わなければ、これだけのやっかいなビジネスを成功させ得なかったと思わせます。
     やっかいだ、と言ったのには理由があります。1980年当時、ジョン・ワーノックが取り組んでいた言語「ポストスクリプト」は、気ちがいじみたという表現が当てはまるほど、現実離れした複雑なソフトウェアでした。ポストスクリプトは、1980年代後半のパーソナルコンピュータの性能では快適にそして高速に処理することはできませんでした。それくらい当時としてはきわめて先進的で、複雑なソフトウェアだったのです。1980年代中期の多くのパーソナルコンピュータ用ソフトウェアに比べて、ポストスクリプトはけた違いに複雑なものでした。
     マイクロソフト社が売り出したMS-DOSの原型であるティム・パターソン(Tim Paterson、1956〜)の書いたQDOSは、開発に半年もかかりませんでしたし、ジョナサン・サクス(Jonathan Sachs、1947〜)は、 Lotus1-2-3(表計算ソフト)を一年で完成させました。ポール・アレン(Paul Allen、1953.01〜)とビル・ゲイツ(Bill Gates、1955.10 〜)は、マイクロソフトBASICを6週間で仕上げました。アンディ・ハーツフェルド(Andy Hertzfeld、1953.04 〜)でさえ、 Macintosh のシステムソフトウェアにかけた時間は二年足らずだったのです。しかし、ポストスクリプトは、完成までに20人・年もかかっているのです!
     はるかに大きな処理能力を持つメインフレームの世界なら、ポストスクリプトが生まれても不思議はありません。投資も惜しまないでしょう。しかし、現実に成功したのは、当時まだまだ小さな会社であったアップル社とアドビ社が手がけていたパーソナルコンピュータの世界だったのです。これは驚くべきことでした。スティーブ・ジョブズ(アップル創始者)にとっては自分の信念が見事に花開いた歴史的な成果だったと言えるでしょう。
    ポストスクリプト言語は、マッキントッシュとアップルが開発したLaserWriter(1985年)というプリンタを接続するインタフェース言語として普及しました。1985年当時、アップルが開発したLaserWriterは、7000ドル(170万円)もの高価なもので、コンピュータ以上の値段がしました。レーザライタは、12MHzのクロックで動作する最高級レベルのCPU"Motorola 68000"を搭載したコンピュータそのもので、当時の8MHzで動くMacintoshよりも高性能だったのです。そうでなければテキストで送られてくるポストスクリプト言語を解釈して、300dpiのビットマップ画像に展開してプリントアウトすることができなかったのです。ポストスクリプトによるプリンタは、従来のプリンタの表現力を一新したものでした。
    パソコンの文化 第16話 「パソコンを形作ったアプリケーションソフト(その1) - アドビ(Adobe)参照)
     
    ■ aiファイル:
     aiファイルは、Adobe社の描画ソフト「Illustrator」用のファイル形式です。これは、DTP(Desk Top Publishing、広告宣伝、印刷物作成)を目的としており、ドロー系のグラフィックファイルとなります。描画をビット単位で行わずベジェ曲線を使った関数による記述を使っているため、ファイルを開いて文字や図形を拡大してもジャギー(ギザギザ)は決して現れません。(貼り付けたJPEG画像やPNG画像はこの限りではありません。)
    Illustrator自体は Macintosh 育ちのソフトウェアですが、バージョン7.0からはWindows版が発売されました。これにより Macintosh と完全互換ができるようになりました。
     
      
    ■ SVG(Scalable Vector Graphics)  (2010.03.15)(2010.03.21追記)
     SVGは、インターネットの普及とともに使われ出したベクターグラフィックス言語による画像フォーマットです。
    拡張子はsvgです。
    ベクターグラフィックスとは、数式によって表現された画像であり、ポストスクリプト言語に属する記述です。ドロー系グラフィックスと同じ意味をもちます。
    ベクターグラフィックスの反対にあるのはビットマップ(ラスターグラフィックス)です。
    SVGは、インターネットで使うWeb作成のXML(Extended Mark up Language) をベースとして、その言語で使えるようにSVGワーキンググループによって1998年に開発されました。
    最初のバージョンであるSVG1.0は、2001年にリリースされました。
    ワーキンググループには、マクロメディア、マイクロソフト、アドビシステムズ、サン・マイクロシステムズが参加しました。
     この画像ファイルは、インターネットでWebを表示する際に画像ファイル容量をできるだけ小さくして、かつ希望する解像力で表示できることを目的としていました。Webで使うアニメーションや透明化にも対応していました。
    SVGは、ポストスクリプト言語と同じようにテキスト形式でファイルが構成されています。「イラストレータ」やPDFで発展したポストスクリプト言語とインターネットで発展した言語が融合して、Web開発に使いやすいようにこの画像フォーマットが作られたようです。従って、インターネット教材などにこのSVGモジュールを組み込んでおけば魅力あるテキストが出来上がります。
    SVGは、「イラストレータ」で何の問題もなく作成することができ、SVGファイルの編集も「イラストレータ」でできます。
     写真画像をSVGで保存するのは、あまり得策ではないでしょう。写真画像は数式では表しにくいものでJPEGやPNGの方がコンパクトです。SVGは、アニメや文字やイラストなどをWeb作成用に使うことで効果が上がるように思います。
     
     
    ■ Flash(フラッシュ)  (2010.03.21)
     Flash(フラッシュ)は、Webに組み込まれた閲覧者の意向に沿って動く画像です。
    従来の画像が静止画もしくは通り一遍のアニメ画像であったのに対し、Flashはマウスの操作でインタラクティブにアニメ表現ができます。パソコンの主流OSで標準でサポートしており、インターネットブラウザにもモジュールが組み込まれているので、特別なインストールを必要とせずにフラッシュ画像を見ることができます。
    Flashは、米国FutureWave Software社(1993 - 1996、San Diego)が1996年にアニメーションデータ作成ソフト「FutureSplash Animator」を開発したのに始まります。これを同国のマクロメディア社(Macromedia、1992 - 2005、San Fransisco)が会社ごと買収し、製品の頭文字を取ってFlashとしました。
    マクロメディア社は、2005年4月にAdobe社に買収されたので、以降はAdobe Flashとなりました。
    Flashの拡張子は、SWFです。SWFは、Small Web Formatの略です。マクロメディア社が扱っていたときは、ShockWave Formatとしていました。
    このフォーマットの特徴は、ファイルがコンパクトであることと、画像に動きがあり閲覧者の希望に応じて表示を変えることができることです。この特徴のため、インターネットのWebで多用されるようになりました。
    Flashは、開発の経緯からカメラからの画像を保存する目的で作られたのではないため、我々計測屋からの利用価値はあまりありません。画像フォーマットがベクターフォーマットであるためカメラで撮影したビットマップ画像には不向きです。もちろんビットマップ画像をはめ込んでフラッシュ画像とすることはできます。
    フラッシュの動画ファイルとして、flv(Flash Vide)があります。このファイルは動画ファイルをコンパクトに収納することができ、YouTubeや、Googleビデオ、Yahoo!Videoなどが標準ファイルフォーマットとしたことから急速に普及しました。
     
     
    ■ SVGとFLAH  (2010.03.22)
     SVGとFLASHは、双方ベクターグラフィックスであり似たような性質を持っています。現在のインターネットでは、FLASHの方がインタラクティブな画像を構築できるのでよく使われている感じを受けます。しかし、FLASHは、Adobe社が保有する技術であり、使用に関してはライセンスが発生します。FLASH画像を作るには、画像を作るソフトウェアを購入しなければなりません。FLASHの再生に関しては無料のViewerやプラグインが配布されており、OSに標準で装備されているので問題なく見ることができます。このやり方(ファイルを作成するツールが有料で、見る側のツールは無料という方法)は、PDFの利用と似ています。
    SVGはオープンソースなので、誰でも自由に使用することができます。このために、携帯電話用のWebに使われたり、特に地図などには小容量ファイルで高画質のベクター画像が得られるSVGが使われているようです。また、図面や技術資料などのデータファイルにはSVGファイルが使われることが多くなっています。PDFが文書の保存に軸足をおいたファイルであるのに対し、SVGはよりコンパクトなWebに組み込んだ画像用ファイルとして使われる傾向にあります。
     
     
     
    ■ PSD(Photo Shop Document)  (2010.02.14)(2010.04.02追記)
     PSDは、画像ソフト「フォトショップ」(PhotoShop)に使われているビットマップ形式によるファイルフォーマットです。
    「ぴぃ・えす・でぃ」フォーマットとか、フォトショップ形式と呼んでいます。
    PSDの源流は、フォトショップが開発された1987年にさかのぼります。
    フォトショップは、レイヤー(階層)という概念をもった画像レタッチソフトであり、画像を色分解して階層状に保存したり、マスクをかけるレイヤーを追加したり、複数の画像を階層化して配置することができます。
    各階層にアルファチャンネルを設定すれば、すかし画像を作ることもできます。
    PSDは、印刷業界では最も標準の画像フォーマットです。学術研究においても、医学分野で良く使われます。白黒カメラに各種フィルターを付け替えてマルチスペクトル画像を作成する際に、フォトショップの階層画像機能は便利だからです。
    PSDは、フォトショップを使った画像処理のプロセスを記憶するような形(レイヤーという階層化構造)で保存できるので、画像処理を再度やり直しする場合に便利です。ただし、階層化によって画像情報が無尽蔵に膨らむので、膨大なファイル容量になります。したがって、画像処理を施した最終画像はJPEGやPNG、TIFFなどに変換して、画像処理途中のものをPSDファイルで保存することを多く行っています。
    パソコンの性能がフォトショップの処理についていけずに、長い時間をかけながら処理を行っていた時代を思い出します。コンピュータの性能が向上する度に、真っ先にテストに使われたのがフォトショップによる画像処理でした。2010年にあっては、32ビットCPUを持つパソコンでは基本的に2GB以上のファイルが扱えないので、フォトショップ画像もこのファイルサイズが一つの目安となります。しかし64ビットCPUではファイルサイズの限界が解き放たれますので、高画質の画像処理をグイグイと行えるようになっています。PhotoShopは、イラストレータなどとともに2003年からCS(Creative Suite)として統合的なソフトウェアとなり、「イラストレータ」など互いで作るファイルを共有しながらシームレスな環境で作業ができるようになっています。
     
    【フォトショップの開発経緯】
     PSDフォーマットを扱う「フォトショップ = Photoshop」は、パソコンのキラーソフトとなったものです。キラーソフトとは、そのソフトウェアがあるためにパソコンを購入するという存在自体が絶大なソフトウェアのことを言います。
     フォトショップは、1987年、米国ミシガン大学の博士課程の学生だったThomas Knollが書き上げたコードが母体となっています。彼は、自分の持っていたMacintosh Plusで白黒画像を表示させるためのコードを書き上げました。当時、コンピュータの画面表示は、文字の羅列が一般的であり、現在のように図や写真、動画などを表示する機能は標準で装備されていませんでした。
    当時は、アップルだけが画像表示できるパソコン = マッキントッシュを発売していました。しかし、それでも当時のマッキントッシュが表示する画像は白と黒の二値化画像(線画)でありグレー表示はできませんでした。
    Thomas Knollは、マッキントッシュのビットマップ表示ができるグラフィック描画に着目し、そしてその画像にグレー表示を与えるべく、画像表示ソフトを完成させたのです。そのソフトは、「Display」と名づけられました。
     「Photoshop」ができた背景には、Knoll家の人々の人となりがあります。ThomasとJohnの父親であるGlenn Knoll(1935〜、米国ミシガン生)は、ミシガン大学の原子力工学の教授であり、趣味が写真でした。彼の自宅の地下室には写真現像を行う暗室が設備されていました。Glennは専攻が原子力工学で放射物質の検出測定法の権威ですから、趣味の写真でも学術的に取り組んでいたことは容易に想像できます。息子のThomasもJohnも父親の血を受け継いでいて、写真が大好きで地下室にこもっては現像処理やマスク焼きに熱中したそうです。そして、彼ら3人に共通したもう一つの知的好奇心がパーソナルコンピュータでした。最初にKnoll家にコンピュータがやってきたのは、1978年で、Johnが高校生の16才の時でした。父親が買ってきたApple II Plus(64k RAM)に親子は夢中になったようです。この環境の中で写真技術とパソコンが融合し、デジタル写真処理の原型ができたと言えましょう。Knoll家にアップルがやってきた9年後の1987年にThomasはアップルMacintosh Plus購入し、このパソコンを使って父親の協力を得ながらデジタル画像処理のソフトウェアを作り上げていきました。
     このソフトを見た弟のJohn Knoll(1962〜)は、Thomasが作ったソフトウェアの潜在能力を見抜きました。彼は、当時、生まれ故郷とは反対の西海岸カルフォルニアにあるILM社 = Industrial Light and Magic社に勤務していました。ILM社は、映画「Star Wars」で有名になったジョージ・ルーカスが設立したデジタル効果処理を行う会社で、1990年代の一連のスター・ウォーズ作品を手がける会社でした。Johnは、デジタル画像処理に精通していたのでマーケットもよく知っていました。Johnは、このソフトを携えて西海岸のコンピュータ関連会社に売り込みました。その中にアップル社とアドビ社がありました。アドビ社は、このソフトウェアを大いに気に入り1988年に販売契約をKnoll兄弟と結びました。フォトショップの成功とポストスクリプトの成功が現在のAdobe社の礎となったのです。
     
    【プラグイン(Plug in)】
     弟のJohn Knollは、兄の開発した画像レタッチソフトウェアを母体としていろいろなファイルを扱ったり画像処理ができるサブソフトウェアを追加する工夫を施しました。さらに、それら追加機能を母体と関連づけてつり下げるという手法を考え出しました。これが「Plug-In」(プラグイン)と呼ばれるソフトモジュールです。プラグインは、TIFFやPICT、BMPなどの画像ファイルが扱える機能であったり、各種フィルター処理などのソフトウェアモジュール、プリンタなどを接続するドライバーソフトウェアなどでした。
     
     
     
    【Photo CD】(ふぉとしーでぃ)  (2010.03.06)(2010.04.29追記) 
     Photo CDは、1990年代初めに作られたプロフェッショナルフォト分野のデジタル画像フォーマットです。2010年にあってはほとんど使われることはなくなりましたが、写真画像の正統的なフォーマットとして写真家や広告、印刷業界で採用されて来ました。
     なぜ、現在ではPhotoCDが使われなくなっているかと言うと、
     
      ・ 圧縮フォーマットではあったものの、可逆圧縮
        であり高解像度であったため、画像容量がJPEG
        に比べて大きかったこと、
      ・ 使用料(特許)の問題があったことと、CDに
        特化したこと( = CDに焼き付けるフォーマッ
        トであったこと)、
      ・ スキャナーが安価になって個人で写真をデジタ
        ルに落とせるようになり、有料で外部に依頼し
        なくてもよくなったこと、
      ・ 記録メディアがCDに特化していたため、DVDや
        HDD、そのとフラッシュメモリの発展に後塵を拝
        してしまったこと、
      ・ デジタルカメラが急速に普及してフィルム画像の
        需要が衰えたこと
     
    などが上げられます。
     PhotoCDが開発された1990年代初めは、JPEG画像も産声をあげた時期でもありました。JPEGは無料で使用でき、しかもネットワークで簡単に送受信できたことからJPEGが写真画像の主流となり、特許料とCDへの保存に縛られたPhoto CDは時代に取り残されました。
    Photo CDは、後年Picture CDという規格になります。PictureCDではJPEGを採用しました。
     Photo CDは、1992年に世界最大のフィルムメーカーであるEastman Kodak社とオランダのフィリップス社との共同で開発されたもので、アナログ写真画像をデジタル変換してCDに保存するというものでした。
    この画像ファイル規格は、1990年代まで幅広く使われてきたフィルム画像をCDにデジタル記録することを骨子としていました。(オランダのフィリップス社は、日本のソニー社とともにCD規格を立ち上げた会社です。)
     従って、フィルムのネガかポジ(=リバーサル)をDPE店(フィルムの現像とプリントを行う店)に持っていくと、以下に説明する「Base」というフォーマットサイズでデジタル化しCDに焼き付けてくれました。
    当時、この変換作業料金が結構高く、CD一枚分で10,000円〜20,000円だったように記憶しています。当時は、CDのブランクディスクも高く、1枚1,000円近くしていたように記憶しています。
     1992年と言えば、Windows98が出る6年前であり、マイクロソフトがまだMS-DOSを販売していた時代です。CDはまだパーソナルコンピュータに標準装備されておらず、メガピクセルクラスのデジタルカメラなども広く世に出ていませんでした。天文研究関係で100万画素クラスの冷却型のフルフレームトランスファー型CCDが使われていたり、Kodak社がニコンカメラを改造して100万画素の一眼レフデジタルカメラ(DCS)の販売を開始した時代です(光と光の記録 - レンズ編、Kodak DCS参照)。これらのカメラは100万円以上と高価でした。フィルムスキャナーもとても高価でした。これらに使われていた画像ファイルはTIFFでした。
     
    ■ PhotoCDの画像フォーマット
     Photo CDの拡張子は pcdで、Image pac(イメージパック)という圧縮フォーマットを採用しています。
    画像フォーマットサイズは、「Base」を基本として6種類のものがあり、容量別に1/16、1/4、1/1、4、16、64となるBase/16、Base/4、Base、4Base、16Base、64Baseがありました。高画質の64Baseは、後年規格化されたもののため、これを特にPro PhotoCDと呼んでいました。
    「Base」は、512画素 x 768画素(アスペクト比 1:1.5)のフルカラー画像で、ファイル容量は1.13MBとなります。(単純計算では、1.180MBとなりますが、文献では1.13MBと表記されています。)フィルムの画像サイズ(ライカサイズ)が24mm x 36mm = 1:1.5 であるために、PhotoCDの画像サイズもこのアスペクトになりました。
    このBaseが基本となって、4Baseではファイルサイズが4倍となり、画素数は縦横それぞれ2倍となります。16Baseでは16倍(画素数は4倍ずつ)になり、64Baseでは64倍(画素数は8倍)となります。
    ライカサイズのフィルム画像は、2,048画素 x 3,072画素あれば情報が十分に吸い上げられるという計算でした。
     今でこそ、画像ファイルはユーザが任意に縮小したり別のファイルフォーマットで自由に変換できるようになりましたが、1990年代前半において100万画素にも及ぶ画像を得るには、フィルムからスキャニングで作ることが手っ取り早い方法だったのです。コダックはここにビジネスチャンスを見いだそうとしたのだと思います。
     
     
    名  称
    解像力
    サイズ
    用 途
    縦x横(解像力)
    画素数
    MB
    Base/16
    128 x192
    24.8 k画素
    0.07
    プレビュー、サムネイル
    Base/4
    256 x 384
    98.3 k画素
    0.28
    インターネットWeb用
    Base
    512 x 768
    393.2 k画素
    1.13
    コンピュータスクリーン
    インターネットWeb用
    4Base
    1,024 x 1,536
    1.57 M画素
    4.50
    高解像力TVスクリーン
    16Base
    2,048 x 3,072
    6.29 M画素
    18.0
    印刷用
    64Base
    4,096 x 6,144
    25.2 M画素
    72.0
    プロ印刷
     PhotoCDの規格
     
     この規格ができた1990年代後半、DPEショップにフィルムネガを持ち込むと、Base/16から 16Base までの5つの画像を1セットとしてCDに焼いてくれた記憶があります。PhotoCDでは、CD1枚に100画像を記録できる規格になっていました。Pro PhotoCDでは4倍の大きさになるので1枚のCDに25枚の画像を保存できました。
     PhotoCDの5つの画像のファイル容量を合計すると23.987MBとなります。CD1枚に100画像分を記録すると2.4GBとなります。これではCDに収まりません。650MBのCDに100枚のPhotoCDを記録するとなると、1つの画像は6.5MB以下に抑えなければなりません。16Baseの画像でも18MB相当あるのです。従って、PhotoCDは可逆圧縮手法が使われています。これは、Image Pacと呼ばれる形式でした。
     
    ■ イメージパック形式(Image pac)
    PhotoCDは、16Base( = 2,048 x 3,072画素)の解像力を最大として5つの解像力で表現できる画像ファイル形式を持っています。
    (Pro PhotoCDは、64Baseを含めた6種類の画像ファイル持っていました。)
    イメージパックは階層化構造を持ったもので、基本画像(Base)画像から付加情報によって5種類の解像力を持つ画像を任意に呼び出すことができるものです。この階層化技術(hierarchical storage format)は、米国のHP社(Hewlett-Packard)が提供したと言われています。
    先に述べましたように、PhotoCDは5つの解像力を持つ画像形式で、最大のものは、16Baseの2,048 x 3,072画素フルカラーです。しかし、この画像はファイル容量を単純計算すると18MBとなります。PhotoCDでは、Baseが画像の基本となっていて、高解像度の画像を作るときには、Base画像を基本として画素間を補完して4倍の情報を持つ4Baseを作ります。さらに高解像度を要求する場合は4Baseの画像を元に画像情報を補完して4倍の情報を持つ16Baseを作ります。また、Base/4とBase/16の小さい画像は、容量が少ないので直接画像ファイルを作って保存しています。
     
     PhotoCDの基本画像は、Baseという512 x 768画素でありこれから高画素を構築していく方式をとっています。一番高い解像力の画像ファイルから間引きして画素数を減らしていくのは理解しやすいものですが、Baseという比較的小さな画素で高解像度の画像を構築していくというのは魔法じみていて、ホントに高画質の画像が得られるのかと疑問に感じてしまいます。
    これは、Baseを最終的に作り上げるとき、最初に16Baseの画像でデジタイジング(デジタル化)して、ここから1/16のBaseまで縮小していき、縮小する過程の履歴を残していくからこそできる方法だったのです。縮小の履歴は、16Base相当に現状復帰できる情報であり、この情報をさらに圧縮(Huffman圧縮)して保存するというものでした。
    1990年代当時は、この方法が画像をコンパクトにまとめて画像をストレスなく表示をし、なおかつ高解像度まで対応しているベストな方式であったと言えるかも知れません。
     イメージパックが採用している画像圧縮は可逆圧縮であり、JPEGのような画像の劣化がありません。(正確には、細かい所の色情報を割愛し輝度情報だけを残すので完全な可逆圧縮ではありませんが、ほとんど問題になりません。)
    イメージパックの可逆圧縮方式の基本は以下の通りです。
     
      1. 最初の画像(フィルム画像)を16Base、すなわち、2,048画素 x 3,072画素のフルカラー(24ビット)で取り込む。
      2. この画像を、RGB(3原色)ではなく、YCC(輝度と色差、YUVとも言う)に変換する。
        YCCの方が色の圧縮が行いやすい。基本的にY(輝度)は重要なのでこの情報は残す。
        色差情報は、細かい部位に関しては人の目は対応しないので間引く。
        (これはテレビのカラー技術と同じ。)
      3. 原画像を1/4に変換して4Baseの画像を作る。
        この時に、変換手順を画像ファイルに残しておき、16Baseの画像を作るときの処方箋とする。
      4. さらに、4Baseを1/4に変換して「Base」画像を作る。併せてこの変換手順を画像ファイルに残す。
        「Base」画像を基本画像として保存する。これをもとに4Baseと16Baseを作り上げる。
      5. Base/4とBase/16は、画像が小さいので予め作って画像ファイルとして保存する。
      6. 64Baseは、Pro PhotoCDと呼ばれるもので、これは、最初に4,096画素 x 6,144画素を作り、
        上と同様の手法で合計6種類の画像を構築する。
     
     
     1990年代、4Baseの画像(4.5MB)をパソコンで開けるのは至難の業でした。画像を開けるだけで30秒程度の時間がかかっていたと記憶しています。
     画素数だけを見ますと、Base画像は2000年当時に見られたデジタルカメラ(640画素x480画素相当)とほとんど同程度となりますが、しっかりしたフィルム画像から高性能スキャナー(PhotoCDに使われたスキャナーは千数百万円)でデジタル化した画像は一粒一粒揃っていて(1画素のノイズが少ない)、ヌケの良いデジタル画像が得られていました。また、単板CCD素子で得られたデジタル画像よりもカラー情報がしっかりしていました。しかし、2010年にあっては、3000画素x2000画素相当のデジタルカメラが安価に出回るようになると、画素数に絶対的なパワーがあるので縮小して使えばフィルム画像以上の画像が得られるようになりました。これにより取扱のよいデジタルカメラがフィルムカメラを駆逐していくことになりました。
     
     
    ■ Flashpix(フラッシュピクス)  (2010.03.15)(2010.04.29追記)
     画像の階層化技術をより高めたものがFlashpixです。
     この画像フォーマットは、イーストマンコダック社の主導でヒューレットパッカード社、ライブピクチャ社、マイクロソフト社の協力を得て1996年に策定されました。
     Flashpixフォーマットは、ライブピクチャ社が開発したIVUEというタイル機能/マルチリゾルーション機能を踏襲しています。Flashpixは、Exifフォーマットにも対応していて、デジタルカメラで得られたExifフォーマット画像をFlashpixに変換保存して閲覧することができます。
     Flashpixは、迅速に高画質画像ファイルを閲覧したいという要求から生まれました。元画像とは別に、96x96画素のサムネイル画像がこのフォーマットに組み込まれていて、画像の概要を事前に見られるようになっています。それに加え、元画像を細分化して(タイル機能)、どのエリアを抜き出すかを自由に選ぶことができます。また広い範囲を見たい場合、細かい画像を送る必要はないので間引きした画像を送って通信と表示の負荷を軽減させています(マルチリゾルーション機能)。
    Flashpixでは、最小単位が64x64画素で管理されていて、この画素ブロック(ユニット)をタイル貼りの構造のようにして元画像が作られています。広い範囲を見るときは、64x64画素の中の代表的な情報が繰り上げられて1画素として画像を構築するようになります。通常の画像フォーマットは、画像をパソコンにいったん取り込んでパソコン内で拡大やスクロールを行うのが普通ですが、この方法だと大きな画像をすべて取り込まなければならないので時間がかかったり通信網やコンピュータに負荷がかかります。この不具合を考慮して画像を細分化して格納し、自由にかつ高速に読み出すことができるのがFlashpixです。
     
    【マルチリゾルーション機能】
    Flashpixは、それ自体が物理的なファイルフォーマットを定義しているわけではなく、格納するデータや方法などのルールを定めたアーキテクチャであり、基本的にはさまざまな物理フォーマットに応用できるようになっています。要するにJPEG画像でもTIFF画像でもFlashpixにできるということです。
    Flashpixの大きな特徴は、画像を 64x64ピクセルの1つのブロックとして管理し、このブロック単位で表示や印刷などのアクセスが行われていることです。
    従って、高解像力の画像を表示したり印刷する場合に、能力のないコンピュータやプリンタでは必要以上にかかる処理時間を短縮させることができます。Flashpixでは、画像の表示を最小1/64にすることができます。
    こうしたやり方は、PhotoCDと似ています。しかし、PhotoCDが画素数やアスペクト比がBASEというきまりで固定されているのに対し、Flashpixは自由に選ぶことができます。
    さらにこの自由な画像サイズをもとにして、各辺をそれぞれ1/2、1/4、1/8と4段階に下げた解像度を持たせて迅速に画像表示や出力ができるようになっています。
    低いCPU 能力を持つコンピュータで画像処理を行うときは、画像を間引いて処理を行い、プリントするときに時間をかけて高い解像力でプリント出力することもできます。
    これを「マルチリゾルーション = MultiResolution」機能と呼んでいます。
     
    【タイリング機能】
     Flashpixのもう一つの大きな特徴は、「タイリング = Tiling」機能です。先ほど、Flashpixは64x64ピクセル四方のブロック単位で画像を管理処理していると言いましたが、このきまりを利用して、全体の画像から必要な部分だけを取り出す(これが全体を取り出さないので高速に取り出せる)機能があります。これをタイリングといいます。
    従って、画像データは最初に全体をロードしておく必要はありません。最小限のストレスでその都度保管されているメディアからロードしながら、大きな画像データを処理することができるのです。
     このタイリングとマルチリゾルーションの組み合わせはズーミングでも有効に機能します。
     
     こうしたFlashpixの特徴は、絵画や書物などの貴重な過去の資産やフィルム画像を高精細画像として保管し、必要に応じて希望する大きさで再生表示する目的に有効です。例えば図書館に所蔵している絵巻物や古文書をFlashpix画像で保存して、利用したい閲覧者にネットワークを通じてViewerで見てもらうという方法です。原画像は、1GB(ギガバイト)にも達することがあります。
    Flashpixでは、間引きして全体を小さい表示画像として送ったり、見たい部分だけの拡大画像を送ることができるので、必要最低限のデータ量で画像送信ができ表示スピードがアップします。
     Flashpixを使用するにはライセンスが必要であり、Flashpix画像を見るにも専用のビュアが必要なため、Flashpixという名前が世の中に広く使われているということはないようです。
     
     
    ■ 圧縮ファイル - 画像によるファイル容量の違い
     現在使われている画像ファイルは、圧縮が一般的になっています。圧縮を行う一番の目的は、画像ファイル容量を小さくすることです。メモリが高価であった時代やパソコンの性能が上がらなかった時代、それにインターネットの通信速度が上がらなかった時代にはとてもありがたい機能でした。しかし、圧縮をむやみにかけると期待に添えない結果となります。例えば、圧縮率の高い設定で保存されたJPEG画像は、見苦しい画像となります。画像を計測手段として扱う場合には、圧縮ファイルの特徴とファイル容量の特性を十分に理解しておくことが必要だと考えます。
     
     下に示す左右の写真は、左がBMP(ビットマップ)ファイルで、右がJPEGの10%まで圧縮した画像ファイルです。画質は一目瞭然で、JPEG画像は粗さが目立ちます。BMPファイルは、非圧縮ですから画素数がそのままファイル容量となります。
    512x417画素@8ビット濃度では、以下のファイル容量となります。
     
    512 画素 x 417 画素 = 213.5k バイト/画面  ・・・(Rec-38)
     
     
    【写真画像の圧縮】
     下に示したJPEG画像では、10%に圧縮してますのでファイル容量は1/37の5.7kバイトです。両者を比べると、ファイル容量がかなり小さくなった分画質が悪くなっているのが理解できます。
    同じ画像でPNGファイルを作ると、155.7kバイトとなります。これは、BMPファイルの73%程度しか圧縮できません。このことからPNG(可逆圧縮ファイル)では写真のような細かい画像に対してはあまり得意ではないことがわかります。
     
    【グラフィック画像】
     その下に示したサンプル画像は、白と黒がはっきりした単純なパターン画像です。この画像でファイル容量を見ますと、BMPファイルは、通常の写真画像と同じ215.0kBとなり、JPEG10%圧縮ファイルは7.4kBで1/29の圧縮になっています。
    注目すべきは、PNGファイルで、2.7kBと驚異的な可逆圧縮になります。PNGは、アニメや文字などのパターンが明確なものに対して非圧縮画像と変わらない品質で高い圧縮ができることがわかります。JPEGは、文字やグラフィック画像の圧縮では画が汚くなります(モスキートノイズが出る)。
     
    【真っ白な画像】
     最後に真っ白な画像について考察します。真っ白な画像でもBMPファイルは画素数分だけのファイル容量(215.0kB)となります。JPEGは、8x8画素で画像のパターンを見ていきますので、1/(8x8) = 1/64以下にはなりません。しかし、PNGでは1.9kBとなり1/119の圧縮になります。パターンが単純化したものほどPNGファイルの威力が発揮できると言えるでしょう。
      
    512x417画素8ビットの白黒写真画像のファイル容量を比較。
      ・BMPファイル:215.0kB - 上左の画像。
      ・TIFFファイル:215.0kB - 圧縮を行わないTIFFファイルはBMPと同じファイル容量を持つ。
      ・PNGファイル:155.7kB - 可逆圧縮ファイルなので細かい写真画像の圧縮率はよくない。
      ・JPEG90%圧縮ファイル: 51.9kB - ファイル容量は1/4程度になった。画質は遜色なし。
      ・JPEG50%圧縮ファイル: 18.6kB - ファイル容量は1/11程度になった。画質は若干荒れている。
      ・JPEG10%圧縮ファイル: 5.7kB - 上右の画像。ファイル容量は1/37。
      ・JPEG 1%圧縮ファイル: 4.0kB - ファイル容量1/53。画質はかなり荒れる。

    512x417画素8ビットの白黒パターン画像のファイル容量を比較。
      ・BMPファイル:     215.0kB - 上左の画像。
      ・PNG圧縮ファイル:    2.7kB - 1/79の圧縮となる。画質の遜色はなし。
      ・JPEG90%圧縮ファイル: 16.0kB - ファイル容量は1/13程度になった。画質は遜色なし。
      ・JPEG10%圧縮ファイル: 7.4kB - ファイル容量は1/29程度になった。画質は遜色なし。
      ・JPEG 1%圧縮ファイル:  5.8kB - 上右の画像。ファイル容量1/36。画質は荒れる(モスキートノイズ)
     
    パターンの大きな画像は、少しの圧縮率設定で大きなファイル圧縮ができる。その理由は、JPEGの8x8の圧縮アルゴリズムが、パターンのはっきりした画像では1/64にすることができるため。パターンの粗い画像はPNGが圧倒的に有利で高い圧縮率が得られる。
    512x417画素8ビットの
    白色画像のファイル容量比較
     ・BMPファイル: 215.0kB - 左の画像。
     ・PNG圧縮ファイル: 1.9kB - 1/119圧縮。
     ・JPEG 90%圧縮ファイル: 3.6kB - 1/59。
     ・JPEG 50%圧縮ファイル: 3.6kB - 1/59。
     
    単純な白一色の画像でも、BMPファイルでは画素分の容量が与えられる。PNGファイルでは、1/119の圧縮を行い、JPEGより圧縮率が良い。これは、JPEGとは違う圧縮アルゴリズムを使っているため。JPEGは、8x8画素を一つのブロックとしているため、1/64程度が限界となる。単純な画像であればPNGの方が圧縮率がよい。
     
    保存フォーマット
    通常の画像
    白黒のパターン画像
    真っ白な画像
    512x417画素
    8ビット(256階調)
    白黒
    BMP
    215kB
    215kB
    215kB
    TIFF
    215kB
    215kB
    215kB
    PNG
    155.7kB
    2.7kB
    1.9kB
    JPEG 90%
    51.9kB
    16kB
    3.6kB
    JPEG 10%
    5.7kB
    7.4kB
    3.6kB
    JPEG 1%
    4.0kB
    5.8kB
    3.6kB

    画像パターンの違いによるファイル容量の違いのまとめ(表)

    上の表から、JPEGは写真画像に威力を発揮し、 パターンのはっきりした画像ではPNGが効果のあることが理解できます。
     
     
     
     
     
     
     
     
     
    ■ デジタル記録(動画像)  (2007.4.15追記)(2010.05.19追記)
     
     この項では、動画像について触れます。
     
     アニメ動画の原理がそうであるように、静止画を時間軸に並べて再生すると動画像が得られます。パソコンの動画像はこの発想で作られました。動画像そのものは、パソコンが発達する前からありました。テレビ放送と映画です。これら三者は、独自の進展をしながらしかも互いに影響し合って今日に至っています(「動画像の歴史的な流れ」参照)。映画やテレビがアナログ動画であったのに対し、パソコンの動画はデジタル画像からスタートしました。しかし、この動画像は放送信号(NTSC、PAL規格)から少なからぬ影響を受けています。パソコンを開発したIBM社がMSDOSコンピュータに与えた標準画面は、NTSC映像信号を規範とした640x480画素をもつVGA(Video Graphics Array)規格でした。
     コンピュータの動画像は、静止画を連続して再生することから出発しました。もちろん、これに音声を入れてテレビ放送のような仕組みとしました。コンピュータの動画像は、テレビ放送よりも柔軟性を持たせることができたので、いろいろな動画像ファイルフォーマットができました。しかし、初期のパソコンは性能がよくなかったので、テレビ放送レベルの画質と音を自由自在に操ることができませんでした。
     デジタル画像・音声技術が進歩してNTSC画像に匹敵するようになると、デジタル画像がテレビ放送を引っ張るような形となりました。両者は互いの文化を守りながら、パソコンで育った動画像ファイルと、テレビで培われたテレビ映像、それに映画で採用してきた映画フォーマットが入り組むようにして、デジタル動画像フォーマットが形作られて行きました。
     
     
    【AVI】(Audio Video Interleaved Format)(えいぶいあい) (2009.05.19追記)
     我々計測分野で最も良く使われている動画ファイルフォーマットがAVIです。最も古い規格であるこのフォーマットが20年近くも一線で使われているのは驚きです。しかも10年以上も開発元がサポートを中止してしまったにもかかわらずです。
     
     AVIファイルは、Audio Video Interleaved Formatの略です。マイクロソフト社が1992年にPC用に開発したムービーフォーマットです。AVIは、Windows標準のDIB(Device Independent Bitmap = BMP)画像の連続したファイルシーケンス間に、WAVEデータ(音声データ)(WAVフォーマット)を挟み込んだフォーマットとして出発しました。
    ■ 2GBの制約
     Windws95で開発されたMicrosoft Internet Explorerには、AVIファイルフォーマットがインラインムービーとして利用されていました(右図)。
     AVIファイルは、WAVE音声データと合体させている関係上RIFF(Resource Interchange File Format)という入れ物を利用しています。このRIFFの入れ物が、32ビットの文字の制約を受けるため、ファイルのサイズも32ビット(4,294,967,296 = 4Gバイト)までとなります。また、データ量にも制限が加えられ、16ビットのAVIで1Gバイトのファイル、32ビットのAVIで2Gバイトの制限となります。ファイルを圧縮して2GB以下にしても、AVIでは再生時に非圧縮と同等のメモリ領域を確保するようで、このときに2GB容量を超えるとエラーとなり再生ができなくなってしまいます。多くのマルチメディアデータにおいて、1GBや2GBのデータは十分な容量ですが、ことムービーに関しては、この限りではありません。ビデオ並のクォリティで扱おうとすると、あっという間にメモリの壁に突き当たってしまいます。
     最近の(2000年以降の)高速度カメラでは、カメラに2GBから4GBのメモリ(時には16GB〜32GB)を搭載していて、撮影した画像をパソコンに転送してそのまま画像ファイルとして保存しようという傾向にあります。AVIファイルは、とても古い規格で継ぎ足し継ぎ足しで存続している規格ですから、4GBのような膨大なデータでAVIファイルを作ろうとするといろいろな障害がおきます。
     それに、開発元のマイクロソフト社は、1997年(13年以上も前)にサポートを中止してしまいました。
    AVIでは、どうにも拡張性がないということのようです。マイクロソフトは、1996年にAVIに変わるフォーマットとしてASF(Advanced Streaming Format)を登場させて普及をはかりますが、芳しい結果になりませんでした。
    そこで、マイクロソフトは、WMV(Windows Media Video File)ファイルを2000年に登場させ、WindowsOSの標準動画ビュアであるMediaPlayerの標準フォーマットにしました。WMVをサポートする現在のMediaPlayerでは、もちろん旧来のAVIファイルを読み込むことはできます。しかしながら、OSやAVIそのものの規格から外れた2GB以上の容量を持つAVIファイルに対しては、ユーザーの責任において処理しなければならない問題として残っています。
     そうは言っても、計測分野での動画処理では2010年時点でもAVIは圧倒的に主流です。
    多くの計測用動画処理ソフトが、現在もなおAVIファイルを主ファイルフォーマットとし、MPEGやWMVファイルには対応していないのが実情です。DVDなどの映画がMPEG2の規格で動画像を保存しだしているため、AVIを扱うのは計測を目的とした分野に限られるようになってきました。
    なぜ、AVIが今も使われているのかと言うと、AVIは一枚一枚の画像を分離して保存できるからです。しかし、AVIのコーデックには、MPEGや、H.264などの時間圧縮方式も出てきたので(この方が、圧縮率が高くて画質が良い)、こうしたコーデックを持ったAVIを計測に使う場合には、従来の常識である「AVIは一枚一枚が独立した画像」という考えができなくなり、画像処理上では問題になることがあります。
     
    【AVIファイルの圧縮 - 圧縮コーデック】
     コーデックというのは、Codecと書き、Compression & Decompression の略です。圧縮と復調という意味です。
     AVIでは、データの圧縮メカニズムがシステム(OS)そのものと関係なく独立しているので、圧縮コーデックドライバがインストールされていれば、いろいろなタイプの圧縮が可能です。逆に、適切なドライバがインストールされていないと圧縮されたデータが読み出せず映像部が再現されません。使用している圧縮コーデックに関する情報は、ビデオストリームのヘッダに4文字のIDのかたちで記録され、再生時に指定されたドライバを読み出して映像を再現するようになっています。
    コーデックで有名なものでは、インテルが開発したIndeo(1992年〜)、SuperMac社が開発したCinepak(1992年〜)、マイクロソフト社が開発したMicrosoft Video1(1992年〜)、MotionJPEG圧縮、MPEG圧縮、H.264圧縮などがあります。
     右の表に、各種のコーデックで保存したAVIファイルとその容量の比較を示しました。表の一番左はTIFFの連番ファイルで21枚の合計です。非圧縮AVIはTIFFファイルを寄せ集めただけのものですからファイル容量は同じです。一番右のQuickTimeはAVIファイルではありませんが、2010年時点で一番圧縮がよくて画質がよいので参考までに比較に入れました。
     
     AVIは今や古いタイプのフォーマットで、コンテナという異名を持つほど、つまり、単なる箱というほどになってしまいました。その箱にいろいろなコーデック(Codec)を仕掛けてAVIファイルとしています。ですから、ひとくちにAVIと言ってもどのコーデックで格納したかをしっかりと把握しておく必要があります。
     
    【2GB以上のファイルを扱えるAVI2.0】
    マイクロソフト社がサポートを中止したAVIフォーマットの箱だけを活かして、現在でも使えるようにした規格がAVI2.0です。この規格には、マイクロソフト社自体は関与していません。これは、1996年に画像ボードメーカのMatrox社が中心になって、OpenDML(Open Digital Media Language)という技術を作り、この技術を元にしてOpenDML AVI(AVI2.0)を作りました。このAVIでは、2GB以上のファイルが扱えるようになり、また、MotionJPEG動画をAVIフォーマットで再生できるようにしました。SonyのVAIOは、システムに「DVgate」と呼ばれる動画編集ソフトが同梱されていて、これで2GBを越えるAVIファイルを作ることができます。また、動画像キャプチャーボードを扱っているカノープス社もAVI2.0に保存できる動画像保存ソフトウェアを作っています。Adobe社の動画編集ソフトウェア「Premier」では、ver.6.0からOpenDML AVIに対応しています。これらの環境のあるパソコンでは2GB以上のAVIファイルを再生することができますが、多くのパソコンにはそのような環境を持ち得ない場合が多いので、それらの大容量AVIファイルを配布するときには、もらった相手が再生できることを確認する必要があります。
     また、2GBを越えるAVIファイル作成については、参照型AVI(Reference AVI)というものも存在し、複数のAVIフィアルを切り替えながら再生を続けて、見かけ上2GB以上の壁を越える方法を取っているものもあります。この方法を取るAVIも、配布先にこの種の動画ファイルが再生できることを確認して配る必要があります。
     2GB以上のファイルを持つ動画像の場合には、JPEGなどの1枚単位の静止画を連番で一つのフォルダーに保存する方法が確実と考えます。AVIで一つのファイルにまとめるのは、データが飛散してしまわずに便利な側面がありますが、計測という観点からは、一つ一つの静止画で画像処理をするというのが基本なので、静止画の連番ファイルを薦めます。パワーポイントに動画像を貼り付ける場合は、このファイルから、必要な範囲を抜き取り、必要十分な画素サイズに変換してMPEG2などの圧縮ファイルで保存する方法がスマートだと考えます。
     
    【WMV】(Windows Media Video、だぶりゅえむぶい)
     マイクロソフト社が、AVIファイル及びASFファイルに代わる規格として2000年に発表したデジタルビデオの新しいプラットフォームです。AVIファイルの後継ファイルとして登場し、高い圧縮率と大容量化が図られています。このファイルは、時間圧縮をしているのでAVIオリジナルの1枚1枚を保存する形式とはなっていません。MPEG圧縮技術を採用しています。MPEG圧縮といってもマイクロソフト社が独自に手を加えたMS-MPEG4なので互換性が問題になったこともありました。いずれにせよ計測分野には使いづらいフォーマットでした。WMVファイルは、インターネット上で徐々に浸透してきました。Windows Media Player で標準の動画ファイルとして大々的に採用している関係上影響力も大きなものでした。
     AVIファイルが1997年にサポート中止をされた後、幾多の変遷を経てWindowsの動画はこのフォーマットに落ち着きました。しかし、我々計測分野では依然としてAVIファイルの利用が多いのが実情です。WMVファイルは、計測用の動画処理ソフトウェアでは認識しないようです。計測分野になぜWMVが浸透しないのかというと、WMVの採用している圧縮方式(MS-MPEG4←MPEG4と若干違う)が計測分野にそぐわないからだと考えます。計測分野では動画は1枚1枚独立していたほうが計測をする関係上都合が良いのです。その意味でAVIは、古い規格ながらその願いにかなったフォーマットなのです。
     
    【QuickTime】(くいっくたいむ)  (2010.03.27追記)
     QuickTime(くいっくたいむ)は、コンピュータ動画ファイルの老舗的なものでアップル社が1991年に仕様を決めたマルチメディアフォーマットです。20年の歴史を持ちます。マイクロソフト社の開発したAVIは、QuickTimeを過剰に意識して1年遅れでリリースされたものでした。QuickTimeの初期のものは、圧縮アルゴリズムとしてSuperMac Technologyが開発したCinePakを搭載していました。パーソナルコンピュータで最初に動画を扱ったフォーマットとして歴史に残るものです。このフォーマットは、2010年にあっても最強の動画フォーマットとして使われ続けています。
     QuickTimeの一般的なファイル拡張子は、movあるいはqtです。QuickTimeは、ムービー、サウンド等が取り扱え、また比較的簡単にムービーを作ることができるため、インターネットでの代表的なフォーマットとなりました。
     QuickTimeはまた、ビデオデッキ等の制御、ビデオキャプチャ、データ圧縮、メディアの同期再生などの機能とそれを利用するためのツールボックス(システム)を提供しています。このデータのファイルを「QuickTimeムービーファイル」といいます。QuickTimeの名前は動画用ファイルフォーマットとしてあまりにも有名になってしまいましたが、実際には、静止画、テキスト、サウンド、MIDIといったさまざまなメディアを扱うことができ、これらのメディアを時間軸を追って制御することができます。
     
     クイックタイムは、開発当初、AVIとよく比較されました。しかし、マルチメディア環境を時間軸に従って同時刻性を持たせる点ではAVIとは比べものになりませんでした。1993年には、Windows上で再生するための再生エンジンQuickTime for Windowsが発表され、Windows上でも再生可能となりました。さらに1998年には、Java版の「QuickTime for Java」も発表されました。
     QuickTimeムービーファイルでは、RIFF(Resource Interchange File Fomat)のチャンクに相当するものをアトム(atom)といいます。サイズ情報は、32ビットを符号付き整数として扱うので、管理できるのは最大2Gバイトまでです。これはAVIでも同じです。最近のファイルは、2GB以上のファイル容量をカバーするためにシームレスにファイルを読み出す機能を追加しています。
     
     QuickTimeは、非常に良くできたインターネット通信の動画ファイルで、映画用予告編(Trailer)でその能力をいかんなく発揮しています(下図参照)。ハイビジョン対応のQuickTimeの画質は、非常にキレイで音声もクリアです。またインターネット上で動画像を再生する際に、データ通信(ストリーミング)をしながら再生もできます。この機能は、QuickTimeとRealPlayerの二つが秀でています。
    アップル社は、2001年に発売を開始したiPodの成功により、iTuneの動画ファイルにQuickTimeを標準装備させたり、デジタル動画編集ソフト「Final Cut Pro」でQuickTimeを標準形式としています。

    クイックタイムプレーヤによる映画の動画サンプルの縮小画像。
    オリジナルは、1280x532画素のもので、H.264デコーダを使用。
    映画用のトレーラでは、フルハイビジョン(1080p)でのサンプル配布を行っている。
     
     
     
     現在のQuickTime(QuickTime7、2005年)は、MPEG4に加えH.264/AVCを標準フォーマットにしているため、互換性の高いものになっています。
    2009年には、MacOSが新しくなったことにより(Mac OS ver.10.6 Snow Leopard)、H.264圧縮を高速処理するQuickTimeXを発売しました。これは、iPhoneで投入された動画処理技術を用いたもので、高画質のハイビジョン画像をストレスなく変換表示したり保存できる機能をもっています。従来のQuickTime7とは互換性がなく、MPEG-4/H.264に特化したもので古い動画ファイルは読み出すことができません。QuickTime7とQuickTimeXは共存できるので両者をパソコンにインストールして使用することができます。
    歴史的に見ますと、QuickTimeは以下のような進化を遂げています。
     
      1991 QuickTime1  コンピュータで動く最初のビデオファイル。
                  CD-ROM動画像の再生。Cinepak圧縮技術搭載。
      1994 QuickTime2  フルスクリーンビデオ。Windows対応。MPEG-1対応。
      1998 QuickTime3  リアルタイム表示(インターネット対応)、Java対応。H.261、H.263対応
      1999 QuickTime4  ストリーミング技術拡張。QuickTime TV。Macromedia Flash対応。
      2001 QuickTime5  Sorenton Video3、拡張DV、Macromedia Flash4対応
      2002 QuickTime6  MPEG-4対応、3GPP、3GPP2対応、MPEG-2再生対応、JPEG2000対応、
                  iTunesに標準装備。Apple Lossless codec採用。
      2005 QuickTime7  H.264対応。フルスクリーン制御。
      2009 QuickTimeX  iPhone OSより開発。H.264ファイルを高速処理。
                 Mac OS ver.10.6(Snow Leopard)にバンドル。
                 インテル64bitCPUに対応。従来のQuickTimeとは別ラインのもの。
                 古いMacintoshやWindowsには対応していない。

    【Motion-JPEG】(もーしょんじぇいぺぐ)  (2010.06.29追記)
     静止画像フォーマットであるJPEGを高速で伸張処理して、連続再生することで動画に見せかける方式です。M-JPEG(えむ・じぇいぺぐ)とも呼ばれています。MPEG-2がパソコンでストレスなく使えるようになるまでよく使われていた手法です。リリースされた時期は明確ではありませんが、JPEGが規格化されてから4年後の1996年頃に規格化への会合が活発になり、以後、ビデオ編集部門や画像計測部門でよく使われるようになりました。
    MPEGが圧縮処理に時間がかかったり、処理に高性能のCPUを必要としていたため、それらの環境が整うまでの間、Motion JPEGは重宝されました。1996年当時は、このファイルを作るのに米国Zoran社とC-Cubed社の2社が供給するMotion JPEGのチップセットを使うのが最もスマートだったので、画像ボードにこれらのチップを搭載してM-JPEG画像を作っていました。
    1996年当時は、動画をパソコンで見るという環境が整っていませんでした。コンピュータの能力(CPUやRAM、HDDの容量)がとても非力であったため、こうした動画作成には画像ボードを使って処理することが多く行われていました。MPEGをパソコンで作ることなど及びもしない時代でした。こうした時代に培われたMotion JPEGは、ビデオ編集分野で重宝され2010年時点でも編集用動画ファイルとして使われています。Motion JPEGは、MPEGと異なり、一枚一枚独立した画像として保存しているのでフレーム単位で編集するのに都合が良いのです。
     その後、コンピュータ内部のソフトウェアだけでM-JPEG画像が作られるようになり、AVIやQuickTimeではMotion JPEGのコーディックが開発されました。デジタルカメラの動画ファイルには現在も使われていますが、昨今のデジタルカメラは画素数が多くなりすぎ、これをMotion-JPEGで保存すると記録メモリに負担がかかるので、圧縮効率が良くて高画質のH.264を採用するカメラが増えています。
     Motion JPEGはまた、専用のハードウェアを使ってデータ圧縮を行いながらリアルタイムで動画の取り込みが行えるため、パーソナル向けのビデオキャプチャ・カードなどにこのフォーマットが採用され動画処理に威力を発揮しました。また、Motion-JPEGはMPEGデータなどと異なり1コマが静止画像として存在するため、任意の箇所での編集が容易に行えます。圧縮率は1/5から1/20程度であり、圧縮をかけすぎると粗い画像となります。開発当時、この圧縮画像を使って画像計測を行おうとしたところ、圧縮されたデータが誤動作を起こして正確な位置情報が得られませんでした。
     Motion JPEGとMPEGは、名前が似ていますが、フォーマットが違います。画像計測用にMotion-JPEGはしばしば使われますが、MPEGは不向きです。MPEGフォーマットでは画像を静止させたりコマ送りしたり逆転再生することが不得意です。(そうした要求でフォーマットを作っていないので)。JPEG画像でも圧縮の度合いによっては計測は苦しくて、読み取り値が正確ではなくなるという指摘も多くあります。画像計測にはあまりおすすめできないフォーマットです。
     
     そうは言っても2010年にあってはMPEG画像が大量に出回り、好むと好まざるにかかわらず、撮影されたMPEG画像から画像計測をしなければならない状況が多くなってきました。計測精度はどうあれそういう時代になりました。(2010.05.25記)
     
    【MPEG】(Motion Picture Expert Group)(えむぺぐ) (2009.05.04追記)(2010.06.27追記)
     MPEGは、Motion Picture Expert Group の略です。このフォーマットは、1988年に設立された同じ名前を持つグループが動画の符号化技術研究をする中から生まれました。一般的な拡張子は、mpg、あるいはmpegです。WMVやQuick Timeと異なり、ISO標準化機構が仕様を決めています。DVDやデジタル放送の圧縮フォーマットに採用されたため、2010年時点ではもっとも一般的な動画圧縮ファイルフォーマットとなっています。この動画フォーマットは歴史もあり、今なお発展が続いている動画フォーマットではありますが、扱う範囲が広くなってしまって、例えば、MPEG-4でもいろいろなカテゴリー( = プロファイル)ができてしまい、MPEGと一口に言っても再生できないケースがでてきています。
     
     
     
     
    ■ キーフレーム
     MPEGは、上の概念図が示しているように、すべてのフレーム( = 画面)にわたって独立した画像があるわけではありません。MPEGでは、キーフレームと呼ばれる全体の画像を構成するフレームがあり、それ以外は、キーフレーム間で動いている部位だけを保存する方式が取られています。この方法を使えば、1フレームすべてを保存するよりも明らかにデータ量が少なくて済みますし、単位時間あたりに送るデータ量も少なくてすみます。つまり、この方式は通信帯域が狭くても、帯域以上の情報を持つ映像を送ることができるのです。
     
     右の図は、MPEG-2画像の説明図です。拡大をするとMPEG-2画像の特徴を理解することができます。この画像は円形の回転円板に四半円形と白丸、黒丸のターゲットマークを貼り付けて回転させている画像の一枚です。この画像の拡大図を見ると、ターゲット周りの部位だけトリミングされて細かい画素に区分けされ、動いてないバックグランドは大ざっぱに処理されていることがわかります。
     
     MPEGの開発は、従って、データ通信の負荷を軽減するために行われました。動画は大量のデータが連綿と続くので、動画像をインターネット回線などを通じて送ると送信帯域の不足という問題がおきてしまいます。その不具合を解消する手だてとして、データを圧縮して送るという方法が採用されたのです。
    データ圧縮は、JPEGのように一枚の画面の無駄な情報を省く空間圧縮と、複数画像に渡って変化していない画像情報は送らないとする時間圧縮の二種類があります。空間圧縮と時間圧縮の2方式を使うことにより、圧縮を行わない非圧縮AVIファイルよりも1/100〜1/200程度の圧縮が可能となりました。
    MPEGは、1990年代後半から2000年代にかけて、DVDによる映画やインターネット配信、それとデジタルテレビ放送に採用されるようになり、現在の動画ファイルの主力になっています。
     
    ■ 時間の遅れ
     このファイルフォーマットで注意しなければならないことは、一つには、リアルタイムでの送受信が難しいことです。ファイルの構造上、キーフレーム間の1組の画像(GOP = Group Of Pictures)を単位として、動きのあるところだけを抽出して圧縮処理を行います(下図参照)。GOPがMPEGファイル画像の基本かたまりとなります。MPEG処理には相当優秀なエンコーダが必要です。我々が使っているPCのソフトウェアを使ってMPEGファイルをエンコードするには相当な時間がかかります。テレビ放送ではパソコンのような悠長なことはできないので、専用のエンコーダ装置を使ってMPEG-2処理を高速で行い放送しています。そうした高性能処理装置を使っても画像間での圧縮処理を行う必要上、画像を溜め込む作業を含めてその処理に時間的な遅れがでます。それらを合計すると、およそ1〜2秒程度の遅れとなり、実際の現象より遅れて送信経路に入ることになります。
    また、受け取る側でもネットワークの通信回線状況や帯域で通信速度が変わります。その上、受け取るコンピュータでもMPEGを解読して再生画像を作る処理が入りますので、ここでもキーフレームと差分画像から動画像を構築するための処理時間(遅れ時間)を覚悟しなければなりません。
    昨今のテレビ放送は、デジタル放送になりましたけれども、MPEGを採用している関係上アナログ放送の同じ番組と見比べると2秒程度遅れています。(事前に録画したものはデジタル遅れを補正して早めに送っている局もあるそうです。)NHKの正午の時報などは、昔のアナログ放送やラジオ放送であれば時間の遅れなんどほとんど気にせず送信できたのに、デジタル放送のMPEG-2ではデジタル遅れが出てしまうためにサービスを止めてしまいました。デジタルなどという高性能の代名詞のような響がある方式に、時間的な遅れがかなりあるというのは驚きです。メモリバッファに画像情報を溜め込んで再構築するデジタル手法では避けて通れない特徴となります。
     
     
     
    ■ Iフレーム、Pフレーム、Bフレーム
     MPEGでは、3種類のフレームが使われています。
     
      ・ Iフレーム
      ・ Pフレーム
      ・ Bフレーム
     
    この3つがGOPの中に格納されています(上図参照)。
    キーフレームは、「I」フレーム(Intra coded Frame)と呼ばれています。差分情報だけの小さい容量情報フレームを「P」フレーム(Predicted Frame、予測フレーム、デルタフレーム)、および「B」フレーム(Bi-Predicted Frame、双方向予測フレーム)と呼んでいます。
    「I」フレームは、自己完結型のフレームで画像全体の情報を持っています。これは、キーフレームとして使われます。JPEGなども空間圧縮をほどこしてはいるもののそれ自体にすべての画像情報を持ち合わせているので「I」フレームに入ります。
    「P」フレームはデルタフレーム、もしくは予測フレームとも呼ばれ、直前のフレーム(IフレームもしくはPフレーム)を参照して変化だけを情報として記録しています。「P」フレームは処理が簡単ですから変換作業が行いやすい反面、圧縮にも限界があり、圧縮率を劇的に上げることはできません。
    「B」フレームは、双方向フレームと呼ばれるもので、直前と直後のフレーム(IフレームとPフレーム)を参照して差分を記録するものです。つまり、後ろのフレームと前のフレーム双方の差分を保存するため、「P」フレームよりもさらに余分な情報をそぎおとすことができ圧縮を高めることができます。
    「B」フレームは、当然処理が複雑になりますから、圧縮、解凍には処理装置の負荷がかかります。
     
    ■ 画像計測としてのMPEG
     MPEGでもう一つ注意しなければならないことは、計測目的のためにMPEGを使うのは不適当であることです。このフォーマットは、本来、限られた通信帯域で動画像を送るという目的で作られたものであり、テレビや映画などを通信回線で送ることを目的としていました。またMPEG-2では4.7GBの容量のDVDに映画を保存再生することを大事な使命としていました。DVDによる映画鑑賞は、連続再生が念頭にあります。計測用の動画像は、静止させたりスロー再生を行ったり逆転再生を行います。そのうえ、画像一枚一枚から物体の変位を求めたり、濃度を精度よく計測します。こうした目的にはMPEGは不向きです。
    MPEGでは上で述べたようにキーフレームをつかった連続画像を構築することに重点を置いています。一コマ送りやスキップ再生、逆転再生を行う場合、その都度キーフレームを探して(GOP毎に)希望する範囲での連続画像を構築し、一連の動画像を構築します。そうした工程を経るランダム再生画像は自然ぎこちないものとなります。
    放送業界も編集作業にはブロック単位(GOP単位)での編集がしずらいためにMPEGを用いておらず、最終成果品としてのみ使用しています。
    こうした観点から、MPEGはその性質を十分に理解して使用する必要があると言えましょう。
    (放送局で採用されているMPEG-4 Studio Profileという規格は、編集機能を十分に考慮した規格のようです。)
     
     下図に、MPEG-2ファイルを使って回転体に貼付したターゲットマークの変位をプロットした図を示します。プロット図は、横軸にフレーム、縦軸に回転するターゲットのY方向(垂直方向)の変位成分を示しています。対象物は回転運動ですからY軸成分は単振動(サインカーブ)になるはずです。図を見てみますとおもしろいことに気づきます。15フレーム毎にコブのような成分が現れています。MPEG-2ファイルのオリジナルファイルはAVIです。AVIからMPEG-2ファイルを作りました。オリジナルファイルのAVIファイルで同様の解析をしますと(下図、下段)そうしたコブは見あたりません。
     
     
     
     MPEG-2画像でどうしてこのようなコブの成分が検出されるのかを調べてみて、次のようなことがわかりました。
    MPEG-2画像は、GOP(Group Of Pictures)で動画付けが行われていることはすでに述べました。今回使用したMPEG-2画像は、15フレーム分がGOPの1ブロックに相当しています。15フレームで1つの動きを完結させています。ここでの問題は、GOPのブロック間のつなぎ目処理がうまくいっていないことに起因しています。15コマ間の動画付けはうまく行えるものの、GOPをまたいで次の最初のフレームが数ピクセル分補間できていない感じを受けました。この問題の解決があるのかどうかは今のところわかりません。MPEG-2のオーソライズされたフォーマットを使うと、こうした問題が起きてしまうことは事実のようです。
    この問題を解決するために、MPEG-2ファイルを開ける際にすべての画像分を読み込んで中間ファイルを作って、それを処理するという方法があります。上図の解析で使ったMPEG-2ファイルをTIFFの連番ファイルに変換保存して、同様の解析を行ったところコブの不具合はなく、きれいな単振動波形が得られました。
     こうしたことから、MPEG-2画像は本質的に解析に不向きであることが理解できます。計測目的にはできるだけMPEG-2は使わず、TIFF、JPEGの連番画像を用いるか、AVIファイルを用いることがストレスない方法だと考えます。やむを得ずMPEG-2でしか画像ファイルが入手できない場合は、このファイルを一旦AVIファイルかTIFFファイルに置き換えて解析処理に回すことが無難だと考えます。
     MPEG-2ファイルの大きな特徴である2時間(220,000枚@720x480画素)にもわたる長時間録画ファイルを解析したい場合、これを一気に解析する有効な手だては今のところありません。この場合には、長時間録画されたファイルの中で解析に必要な範囲だけを都度AVIやTIFFにファイル変換して、そのファイルで処理を行うのが簡単で安価な方法だと思います。計測カメラによっては、長時間録画をPCのハードディスクに直接書き込んでいくものがあり、そうしたものは静止画形式で保存するものが多いので、計測はスムーズに行うことができます。
     
     
     
    MPEG-1
     MPEG-1は、MPEGフォーマットの最初の規格であり、1993年に規格が制定されました。当初MPEG-1は、転送速度が1.5Mビット/秒で、画像サイズは352 x 240 画素であり、30フレーム/秒の録画ができました。今から見ると随分小さい画像です。この画像サイズはテレビ画像の1/4であり、テレビを凌ぐという性能ではありませんでした。
     MPEG-1が作られた(1993年)当時のデータ通信やパソコンの処理能力を考えたら、この規格が精一杯だったのかも知れません。MPEG-1のデータ速度は、それでも当時のインターネットに乗せることはまったく不可能でした。1990年代前半の通信回線はアナログ電話機の回線がほとんどで、これで1.5Mビット/秒のデジタル通信を行うことは不可能だったのです。当時のダイアルアップ回線の通信速度は28.8kビット/秒が最高性能であり、MPEG-1が要求する1/52の性能しかありませんでした。従って、MPEG-1は、CD-ROMに動画像を記録する手段として開発され、Video-CDなどに使われました。CDの焼き込み速度がこのレートでした。
     MPEG-1は、2010年にあってはその役割を終え、MPEG-4が使われるようになりました。MPEG-1のオーディオファイルである「MPEG-1 Audio layer-3」だけは、MP3として2010年でも多く使われています。
     

     

     
     
    MPEG-2
     MPEG-2は、1995年に制定されました。
    これは、HDTV(ハイビジョンテレビ)までカバーするデジタルビデオ用の規格でした。
    この規格では、MPEG-1に課したビットレートの制限を外し、転送速度を4Mbps〜24Mbpsとしました。
    取り扱える画像は、720 x 480 〜 1920 x 1080となり、テレビ画像の品質を意識してハイビジョンにも対応できるものとしました。ブロードバンドのインターネットにも対応できるようにしたため、MPEG-2はネット配信できる動画像の確固たる地位を確立しました。
    また、DVDに採用されたため、最も有名な規格となりました。
     
    MPEG-3
     MPEG-3は、存在しません。
    このプロジェクトは、1080本インターレース方式で20 Mbps - 40 MbpsによるHDTV映像送信用として規格化が始まりましたが、MPEG-2がそれらの性能を十分に持っているとして、つまり、その方式がMPEG-2と同じであるため開発の意義がなくなり、規格制定中半ばの1992年にMPEG-2に吸収されました。
    ちなみに、音楽ファイルで有名な、MP3は、MPEG-3ではなく、MPEG-1のオーディオ規格として出発したもので、「MPEG-1 Audio layer-3」の略称です。
     
    MPEG-4
     1998年に制定された移動体通信用規格です。
    規格化された当初の画像フォーマットは、176 x 120 〜 352 x 240 と小さく、通信速度も64kbps 〜 512kbpsと遅いものでした。 この規格は、QuickTime、ASFなどのパソコン上で動くマルチメディアが採用しました。
     その後、MPEG-4は取り扱う範疇が広くなり、パートという形で多くの派生規格が生まれ、通信速度も高速になり高画素高品位の規格になっていきました。2010年にあっては、「MPEG」というとこのカテゴリーを指すことが多くなっていますが、扱う範囲があまりに広いので理解が難しいのも事実です。
     MPEG-4が使われている応用には、1セグやQuickTime7、iPod、iPad、AppleTV、HD DVD、Blu-rayなどがあり、これらに採用されている動画フォーマットは、MPEG-4 AVC/H.264 という規格です。
     
    MPEG-7
     MPEG-7は、従来のMPEGの規格と趣が異なります。
    この規格は、マルチメディア・コンテンツに関するさまざまな情報の記述方法を標準化して、検索を行ったりファイリングを可能にする規格となりました。
    MPEG-7は、1996年にスタートし、2000年を目標に規格化作業が進められました。
    しかし、10年を経た2010年にあってもMPEG-7の名前はあまり聞きません。
    規格の趣旨は、インターネットの進展に伴い、インターネットメディア(文書フォーマット)を統一させて検索や閲覧を容易にさせようという狙いがあったようです。しかし、結果はそれほど芳しいものではなかったようです。
    動画像に関する限りMPEG-7での役割はそれほど大きくなく、2010年にあってもMPEG-4が主流です。
     
    MPEG-4 AVC/H.264
     AVCは、Advanced Video Codingの略です。MPEG-4のパート10の呼び名としてAVCが付けられました。
    正式には、「MPEG-4 Part 10 Advanced Video Coding」と呼ぶのが正しいのですが、長いので単にAVCと呼ぶこともあります。
    また、開発した機関を尊重してH.264を付けています。
    AVCは、MPEG-4のカテゴリーの中にH.264規格を入れて(Part10)ラインアップしたという位置づけです。
    AVCは、2003年に制定されてから徐々に使われるようになり、2010年にあってはもっとも優れた動画像圧縮フォーマットとなりました。
    取り扱う画像の大きさは、320 x 240画素から1920 x 1080画素と広範囲で、通信レートは320kbps〜10Mbpsと地上デジタル放送規格に当てはまるようになっています。
    この規格では、動き補償のためのブロックサイズを16x16画素から4x4画素まで選ぶことができ細かい画像まで補正処理ができるため、ブロックノイズやモスキートノイズの発生を抑えることができます。
     
     
    ▲ H.264規格
     H.264は、動画圧縮ファイルの規格です。MPEGがISOとIECの組織の下で規格化されたのに対し、H.264は、ITU(国際電気通信連合、International Telecommunication Union、前身がCCITT)の下部組織であるITU-TのVideo Coding Experts Group (VCEG)によって、2003年5月に策定されました。
    最初の規格であるH.261は、1990年にできています。
    制作年月から言えば古い規格と言えます。
    それが進化を続けてH.264になりました。
    この規格がMPEGにも採用されることになり、MPEG-4のパート10として仲間入りして、MPEG-4 AVC/H.264となりました。
    MPEGとH.264は、本来開発している機関が違っていたのですが、圧縮アルゴリズムは同じでした。H.264は、非常に優秀なアルゴリズムであり、圧縮率が高い割に画質の劣化がなかったためにMPEGがそれを採用しました。ISO/IECでは、「MPEG-4 Part 10 Advanced Video Coding」として規定し、名前の中にH.264は入っていません。しかし、内容はH.264そのものであるため開発機関に敬意を表してつぎに示すように併記するようになりました。
    「H.264/AVC」
    「H.264/MPEG-4 AVC」
    「MPEG-4 AVC/H.264」
     
    ▲ VC-1(Video Codec 1)
     H.264のライバルは、マイクロソフト社のVC-1(Video Codec 1)です。両者は、圧縮率も画質もほぼ同等といわれています。VC-1は、マイクロソフト社が独自に開発したMS-MPEG用の圧縮コーデックであり、Windows Media Video 9 (WMV9)としてWindows Media Playerに実装されました。これが2003年に米国映画テレビジョン技術協会(SMPTE = the Society of Motion Picture and Television Engineers)に申請され、2006年に規格化されました。VC-1の正式名称は、SMPTE 421M video codec standardですが、こちらは名前が長く覚えずらいので、気軽さも手伝ってVC-1の呼称が広く使われています。
     DVDフォーラムでは、このマイクロソフト社の開発したVC-1とH.264であるMPEG-4 AVCの両者を必須アイテムとして承認したため、以後、この二つが動画圧縮ファイルのスタンダードとして使われるようになりました。
    VC-1は、HD DVD、Blu-rayディスク、Windows Media Video 9、マイクロソフトSilverlightに採用されています。
     
     
    【DV-AVI】(でぃぶいえいぶいあい)
     DV-AVIは、Digital Video AVI の略です。デジタルビデオ規格のデータをそのままAVIという入れ物に入れたフォーマットです。先に述べたAVIがまさに箱になってしまったという典型的な例です。
    DV-AVIは、AVIという箱に入れればいろいろな動画ソフトで再生できるので便利であるという観点から作られ、デジタルビデオカメラからの動画ファイルを作るのに普及しました。デジタルビデオカメラ録画したDVテープをパソコンに保存するときにDV-AVIが使われます。MPEGに変換するよりは編集が楽という理由からです。しかし、当然ながらファイル容量の2GBの壁があります。
    DV-AVIファイルの根本は、以下に述べるDV規格です。そのDV規格はMotion JPEGを基本としていますが、計測用の動画像処理ソフトではこのフォーマットに対応していないものが多くあります。
     
    【DV】(でぃう゛ぃ)  (2010.07.10追記)
     DV(デジタル・ビデオ、ディヴィ)は、Digital Videoの略です。これは1995年に決められた民生初のデジタルビデオ規格で、従来のアナログビデオテープ方式カメラに替えて、デジタル映像データとして磁気テープに記録するために規格化されました。デジタル録画ですから、従来のアナログ式のVHSビデオテープレコーダと違って編集や複製に伴う画質の劣化がありません(「デジタルビデオ信号(DV)」参照)。
     この規格ができる伏線には、テレビ放送のデジタル化とパソコンの普及があげられます。1980年代、VTRの普及によりアナログビデオ信号によるビデオ機器が家庭内に広く行き渡るようになりました。(アナログビデオ信号については、NTSC(Q23.NTSCって何?)を参考にしてください。)このアナログのテレビ(ビデオ)信号をデジタル化したものがDVフォーマットです。従って、DVにはNTSC信号の映像情報を最大漏らさずデジタルに置き換える意図がありました。ビデオ信号をデジタル化したことにより、コピーによる画像の劣化がなくなりました。それまで普及していた8mmビデオテープレコーダも、これを機会にデジタルビデオテープに替わっていくようになりました。
     しかし、そのDVも、2000年後半から登場した80mm径のDVDや1インチ(25.4mm)HDD、半導体メモリ(SDカード)を記録媒体とするビデオカメラの開発により、市場をそれらのカメラに譲るようになりました(AVCHD参照)。こうしたビデオカメラでは、DVではなくMPEG-4が使われました。MPEGの方が圧縮が高いからです。しかし、何度も述べていますが、編集を目的とする業務用の分野ではMotion-JPEGをベースとしたDVは非常に魅力的であるため、そうした分野では2010年においてもDV規格のデジタルビデオテープを利用したビデオカメラが使われています。
     
    ■ DV - Motion JPEG保存
     DV規格での画面サイズは、720×480ピクセルで、フレームレートは30fps、圧縮率は約1/5となっています。画面サイズは、NTSC信号をデジタルにするために必要かつ十分な画素としています。30コマ/秒という録画・再生速度もビデオ信号の規格をそのまま踏襲しました。画像は、Motion-JPEGによるフレーム内圧縮を採用していて、MPEGとは違い一枚一枚の静止画を保存しています。MPEGは、画像間圧縮を行うためにエンコード処理がとても複雑となり、1995年当時はそれを可能にする安価なMPEGエンコーダチップがなかったため、アマチュア向けの製品には搭載できませんでした。Motion JPEGは、反面、映像編集が楽にできました。
    音声は、サンプリング周波数48kHz、量子化ビット数16bitのリニアPCM2chか、32kHz、12bitのノンリニアPCM4chとなっています。録画時間は標準カセットで270分、ミニカセット(Mini DV)で60分か80分のいずれかの録画が可能です。
     DVには上に述べた一般用のもの(SD)と、ハイビジョン用(HD)用のフォーマットHDV規格があります。(デジタルビデオ信号 参照。)
     
    ■ DVとMPEG-2
     デジタルビデオテープで保存するDVと、DVDに採用されているMPEG-2を比べると、DVのビットレートは約25MbpsでありDVDの8Mbpsに比べて3倍強のデータ量になります。DVは時間圧縮をしないMotion JPEGが使われているので、データ量が多くなります。反面、時間圧縮処理を行わないので処理時間が速く、再生も素直に行うことができます。
     2010年時点で民生用デジタルカメラの市場を見てみますと、DVテープを使ったデジタルビデオカメラの生産はほとんど行われておらず、HDDやフラッシュメモリ、DVDを用いたMPEG-2録画のビデオカメラが主流となっています。この流れは、MPEG-2圧縮/解凍がストレスなく行えるまで装置の高速化が進んだことと、使用する記録メディアに汎用性がありコンピュータ、DVD装置との相性がよいこと、記録時間も飛躍的に長くとれるようになったことが主な理由と考えます。
     
     
    【HDV(High-definition Video)】
     HDVは、2003年にDV規格の派生として作られたハイビジョン録画のできる規格です。HDVについては、ハイビジョンデジタルビデオ(HDV)信号の所でも詳しく触れています。DVが規格化されるときに、ハイビジョン映像を民生ビデオ機器に組み込むことが考慮されていて、DV規格で開発された素子やテープなどを最大限に利用することが盛り込まれていました。従って、使用するDVテープも同じものを使うことが前提でした。この前提に従ってハイビジョン対応が図られました。そのための大きな規格として、録画フォーマットにMPEG-2が採用されました。DVがMotion-JPEGを採用していたのに対し、HDVではMPEG-2を採用しました。ハイビジョンにはMotion JPEGフォーマットでは荷が重すぎました。
     2010年にあってHDV規格のビデオコーダは、セミプロ使用や業務用の高価な機器だけに限られ、安価なモデルは以下に示すAVCHD規格のビデオコーダが主流となっています。
     
    【AVCHD(Advanced Video Codec High Definition)】 (2010.07.10記)
     AVCHDは、HDVが採用しているDVテープの記録手法にこだわることなく、さまざまな記録メディアに対応した高圧縮、高画質のハイビジョン規格です。2006年にパナソニックとソニーの共同で基本仕様が策定されました。
     AVCHDの基本骨子は、動画像フォーマットにH.264/MPEG-4 AVCを採用し、画像データをパソコンのファイル管理のようなツリー構造としていることです。テープ録画方式のシリーズ録画とは異なった保存方式です。このため記録した画像をPCで再生、編集するのに都合良くできいます。MPEG-4 AVCは、2010年においては最も効率のよい記録フォーマットです。記録メディアは、基本的には80mm径のDVDであり、このほかにSDカードやHDDなどに対応できるようになっています。
     2010年現在、民生用ビデオカムコーダのほとんどはこの規格のものとなっています。
     
     
     
    ▲ なぜ、720x480画素がNTSC規格の4:3の画面アスペクト比になるのか?  (2007.04.15記)(2010.07.10追記)
     720 : 480 = 4 : 3 になるか? という疑問です。
    これはなりません。
    720 : 480 は、3 : 2 であり、4:3になりません。
    それなのに、4:3の画面アスペクト比をもつDV規格ではなぜ720画素x480画素になっているのでしょうか。
     この素朴な質問に答えるサイトはなかなかありません。この不思議な疑問は、NTSCの放送規格がデジタルに移行されていく過程での微妙なズレから来ています。
     まず、NTSCは、画面アスペクト比が 4 : 3 と厳格に決められています。そして走査線が525本であることも決められていて、これが縦の解像力を決定しています。縦の525本の解像力から換算して、アスペクト比から横の解像力を求めると700本となります。CCDカメラが放送局用に作られたとき、CCDメーカは、この規格に併せた撮像素子を作ろうとしたはずです。しかし、最初からこのような高画素のCCDを作ることができませんでした。縦方向の画素は525本の走査線を考えれば525個の画素は必要だとしても、横方向はそれに相当する画素を配置するだけの技術がありませんでした。ソニーが1980年に最初に作ったCCDは、381画素x525画素(20万画素)だったのです。この配列でNTSCのアスペクト比を満足させるには、381個しかない横方向の画素を縦の画素サイズに比べて1.38倍ほど長くしなければなりませんでした。そうした経緯を経て、技術力が高まっていくと画素数をどんどん増やせるようになり、横方向の画素の多いCCDが作られるようになりました。縦の画素は525個と決められているので、これは増やすことはできません。従って、横の画素を増やして水平解像力を高め高画素化を果たして行ったのです。これは、詰まるところ、1つの画素のアスペクトレシオが水平解像力の増大(画素数が増えていくこと)によって変化していったことを物語っています。
     画素が、最初は横長だったのに高画素化になるに従い縦長になって行ったのです。
     CCDカメラが計測用に使われるようになって、画素が1:1のものができてくるようになりました。正方格子型撮像素子というものです。コンピュータの発達とともに、コンピュータ上で画像を扱えるようになると、コンピュータに合わせた画素数やCCDのサイズが求められるようになり、VGA規格に合わせた640x480画素の正方格子(1画素のアスペクト比が1:1)が作られるようになりました。VGAでの画面のアスペクト比は4 : 3 でした。コンピュータの世界は(VGAは)、アスペクト比とおよその画素数はNTSCを見習いましたが、1画素の大きさは正方格子としました。「1画素 = 正方格子」、これがコンピュータ画像の始まりであり、放送の画面の成り立ちとは大きく異なる点でした。
     放送品質を睨んだDV規格は、計測用(コンピュータ用)とは別の道を歩んでいました。つまり、画質を優先し1画素のアスペクト比を1:1とせず、画素数を優先して720x480画素としました。それにもかかわらず、画面のアスペクト比は4:3に保ちました。とすると、1画素の寸法の縦横比が1:0.889となります。
     この規格を計測用としてパソコンに取り込む場合、どのようなことがおきるのでしょう。DV規格での1画素を正方形とみなしてしまうとアスペクト比が変わり、横の寸法が実際よりも12.5%も長く表現されてしまいます。これでは、この画像から寸法や変位、速度、角度などを求めることができなくなります。これは、一般の映像機器を計測用に使うときに注意しなければならない重要なポイントです。
     計測用には計測用のCCDがあり、放送用やアマチュア用テレビカメラには計測用とは違う要求による(すなわち見かけの画質を優先した)CCDがあったということです。
     
    【DVD-video】(でぃぶいでぃびでお)  (2010.7.10追記)
     DVD-videoは、DVDに採用されている動画ファイルフォーマットです。規格化の背景には、上で述べたDV(デジタルビデオ)をDVDに記録するという目的がありました。 2010年時点で、映画、テレビコンテンツのDVD録画メディアとして最もよく使われている方式です。
     DVDは、CDと同じ直径と厚さで、CDの約7倍の情報を記録できるディスクです。片面1層で4.7Gバイトの映像(8MbpsのMPEG-2ファイルの場合は、約1時間分、4MbpsのMPEG-2ファイルの場合は約 2時間分)を記録できます。片面2層では倍の記録となります。これらの記録時間はひとつの目安で、映像の質と圧縮の度合いにより変わります。DVD-videoは、読み出し専用のDVD-ROMやDVDプレーヤーでの再生が可能で、一度だけ書き込めるDVD-R、何度も書き換えのできるDVD-RWなどがあります。
    DVDのアプリケーション規格では、 以下の3種類があります。
     
      1)DVD-Video
      2)DVD-VR(Video Recording)
      3)DVD-Audio
     
     DVD-Video は、映像に MPEG-2 を採用した映像再生専用規格です。映画用DVDとして最も一般的なものです。
     DVD-VR(Video Recording)は、DVD-RW や DVD-RAM を使用して映画などの映像を記録するビデオレコードの規格です。 DVD-VRFとも呼ばれています。小間切れの録画が可能で、解像度も複数(480x480、544x480など)が許容され、DVD-Videoよりも緩い規格です。DVD-VRは、日本の企業が作った独自の規格であり、正式な規格ではありません。
     DVD-Audioは、オーディオCDのDVD版ですが、一般的ではありません。
     DVDビデオ(DVD-Video)は、動画圧縮にMPEG-2を使い、133分の映像と音声が収録されたビデオディスクです。画素数720ピクセル×480ピクセル、水平解像度約500本程度が主な規格です。音声は、ドルビーデジタル(AC-3)サラウンドとリニアPCMのどちらかで収録されます。
    そのほかにオプションフォーマットとして、MPEGオーディオも認められています。
     
    ■ DVD-Videoのファイル構成
     DVDビデオ(DVD-Video)ファイルは、PC(コンピュータ)で見ることができます(右写真参照)。DVDドライブにDVDビデオの収まったDVDディスクを入れ、エクスプローラで開くと、
     
      [AUDIO_TS]と
      [VIDEO_TS]
     
    というフォルダが確認できます。
    [VIDEO_TS]フォルダには、
     
      「IFO」
      「BUP」
      「VOB」
     
    の3種のファイルが入っています。
    「IFO」はメニュー情報やマルチアングルなどの制御情報ファイルです。
    「BUP」は「IFO」内のファイルが破損した場合のバックアップで、「IFO」と同じファイルが入っています。
    「VOB」には映像や音声、字幕などの実データが入っています。
    通常は、PCにDVDが挿入されると自動的に認識して再生を行います。
     
    【デジタル放送規格】
     この規格は、テレビ放送分野で規格化されてきたテレビ映像のデジタル規格です。デジタル放送規格は、各国様々な思惑が絡みデジタル規格に乗り出したので1950年代のテレビ放送と同様世界統一規格とはなりませんでした。(セグメント放送(Segment Broadcasting)参照。)
     日本のデジタル放送規格は、ISDB(Integrated Services Ditital Broadcasiting、総合デジタル放送サービス)というもので、画像の大きさが4つの画像(と1つのおまけ)で選べるようになっています。4つの画像とは、以下のものです。
     
      1. 480i: NTSCの映像サイズをもとにする720x480画素インターレース方式
      2. 480p: 720x480画素プログレッシブ方式
      3. 720p: ハイビジョン映像である1280x720画素プログレッシブ方式
      4. 1080i: ハイビジョン映像である1920x1080画素インターレース方式
            (ただし、地上デジタル放送では、帯域の関係上1440x1080iで送り、
             受像側で1920x1080iに引き延ばしている。)
      おまけ5. 1セグ: 320x240画素分の映像
     
     この規格は、デジタル放送と液晶/プラズマテレビの台頭によって脚光を浴び一般的になりました。
    なお、ISDBには、地上より送るデジタル放送(ISDB-T)(地上デジタル放送)と衛星から送られるデジタル放送(ISDB-S)(デジタル衛星放送)があります。
    また、地上波による移動体通信向けのデジタル放送(ISDB-T SB)やケーブルテレビ向けのデジタル放送規格(ISDB-C)もあります。
     デジタル放送規格は、コンピュータ文化が育んできたAVIやQuickTimeなどの動画ファイルとは少し趣が異なっています。テレビ放送では、通信帯域と30フレーム/秒の再生速度が最も重要な仕様であり、これは1945年に決められたアナログのNTSC映像信号から息づいているものです。 放送画像は、30フレーム/秒の撮影・再生速度を維持していかに巧みに画質の良い録画と再生を行うかが技術の粋を集める所であり、そのためにいろいろな圧縮技術が開発されました。
     方やコンピュータ動画では、静止画を動画付けする所から出発しています。画素数も再生速度もなんら束縛するものはありませんでした。また、テレビ放送が2時間録画を視野に入れながら動画記録方式を決めているのに対し、コンピュータ動画はせいぜい10分程度を視野に入れていました。なぜ短いのかと言えば、コンピュータの再生能力、保存能力、転送能力が追いつかなかったからです。
    ■ テレビ放送からの画像計測
     テレビ放送は、ビデオ録画装置(ビデオレコーダ、DVDレコーダ、BDレコーダ)に蓄えることが可能で、これをDVDやBlue-rayディスクにMPEG-2フォーマットとして保存することができます。これを計測用として使えるかという素朴な疑問がわきます。MPEG-2の画像計測への限界はすでに述べました(■ 画像計測としてのMPEG )。テレビ放送には、画像のインタレースの問題や、アスペクトレシオの問題、コピーの問題などが横たわっていて、これらの諸問題を十分に考慮した扱いが必要であると考えます。
     
     
    ↑にメニューバーが現れない場合、
    クリックして下さい。
     
     
     
     
     
     
    ■ 画像(電子画像)の記録媒体  (2007.09.11)(2010.08.08追記)
     
     電子画像(ビデオ画像)を記録する媒体にはどのようなものがあったのでしょうか。
    この項目では、電子画像に使われてきた記録媒体について述べたいと思います。
    電子画像を記録する媒体の代表的なものは、鉄の磁性体、プラスチック盤を使った光記録、半導体メモリの3つがあります。これらの3つの記録媒体が発達する前にはフィルム(銀塩感光剤)が使われていました。
     
    ▲ フィルムの時代
     テレビカメラが開発された当初(1940年代)、テレビ画像を録画する手だてはありませんでした。
    テレビ放送と言えば、撮影と同時に遠隔地へ映像信号を送るライブ映像がほとんどだったのです。
    当時(1960年頃まで)、映像を記録して放送をする手だてと言えば、唯一の録画媒体であったフィルム(銀塩)しかなかったので、ライブにできない映像は映画カメラで一旦撮影して記録し、これをテレシネ装置という機械(特殊テレビカメラ=フライング・スポット・スキャナー)でテレビ信号に直して放送していました。
    この方式による放送は、つい最近の2005年あたりまで行われていました。コマーシャルフィルムは35mm映画カメラで撮影して、これをテレシネという装置にかけて放送していました。
     また、スタジオなどでテレビカメラを使って放送したものを記録保存したい場合にはどうしていたかと言うと、映画フィルムを使っていました。この装置は、フィルムに相性の良い特殊蛍光面を持った歪みの少ないテレビモニタ(ブラウン管)にテレビ映像を映し出し、これを特殊なフィルムカメラ(キネレコ装置 = Kinescope Recording)でフィルムに撮影していました。
    キネレコ装置というのは、現在でもさかんに使われています。
    最近の映画はCGによる電子画像が多く、これをフィルムに焼き付ける際にデジタル信号からレーザを使ってフィルムに直接焼き込んでいます。
    記録の仕方は、フィルム上を細いレーザビーム光が走り(スキャンし)、テレビ画像の表示と似たような方式で面記録しています。
    現在の映画の原本はデジタルで保存されていて、旧来のようにオリジナルネガフィルムを保存するというのではないようです。
      → フィルムによる記録へ行く
     
     

     

     
     
     
    ▲ 磁性体による記録 
     テレビ映像記録(電子記録)を初めて行ったのは、酸化鉄による磁気テープの記録装置、すなわちビデオテープレコーダ(VTR = Video Tape Recorder)が開発された1956年です。
    磁性粉体が電気信号の記録に使えるという発見(1898年)があってVTRの登場まで、58年の年月が経っています。
    映像を磁気記録するというのは、とてつもない技術開発だったのに違いありません。
    この項目では、磁性体を使った記録媒体(磁気テープ、フロッピーディスク、ハードディスクなど)を、順を追って紹介したいと思います。
    → 「磁性体による記録」へ行く
     
    ▲ 光による記録
     1980年代からは「光」による記録、それもレーザを使った記録が発展します。レーザの発明なくして現在の映像記録の歴史はあり得ませんでした。レーザの発明とコンピュータの発達(デジタル技術)が光の記録を高度に成長させました。この項目では、レーザを使った映像装置(レーザディスク)からCD、MO、DVD、Blu-rayの特徴を紹介したいと思います。
    → 「光による記録」へ行く
     
    ▲ 半導体による記録 
     半導体製造技術が急速な発展を遂げる中、トランジスタを記録媒体とする手法が考え出され、半導体メモリとして注目を集めるようになります。
    半導体メモリが一躍脚光を浴びたのは、フラッシュメモリの登場からでしょう。それまでは、半導体素子を使った記録のアイデアはあるものの映像を記録するメディアとして使用するには、大きさも価格も使い勝手も実用的ではありませんでした。
    フラッシュメモリが開発される前の半導体メモリは、コンピュータに使われているDRAMに見られるように、電源を切るとメモリ内容が消えてしまうものでした。
    フラッシュメモリは、電源が無くてもデータを保持し続けるという大きな特徴を持っていました。
    → 「半導体による記録」へ行く。
     
     
     
     
     
    磁性体による記録
     映像記録という途方もなく高速で大容量のデータを電子的に保存する手法は、酸化鉄による磁性体の磁気記録により光明を見ます。
    それまでは、(映画)フィルム(銀塩写真感光剤)でなければできないことでした。
     映像を記録する磁性体は、ビデオテープの発明から始まります。これは、音声テープができて後の24年経った1956年のことです。
    ビデオテープレコーダ開発も幾多の苦労がありました。

     

     
     
    【磁気テープ】 (2008.08.17追記) (2008.12.07追記)
     
    ■ 磁気テープの開発
     ビデオテープは、家庭用ビデオテープレコーダのVHSテープなどで広く知られているように、磁性体(記録媒体)を安定のよいポリエステルフィルム(支持体)に塗布したものです。
    ビデオテープは、音声用(オーディオ)テープから派生しました。
    オーディオテープの開発は、1930年代よりドイツBASF社で始められ、ビデオテープは、1950年代後半に米国3M社が確立しました。
    1970年代からは、日本のメーカが磁気テープ開発と製造の主役になりました。
    2000年以降の磁気テープは、デジタルテープとしての位置づけが大きくなっています。
     
    ■ 磁気テープの歴史
     磁気テープの開発を歴史的に見てみますと、磁性体を電気信号の記録媒体として使う手法が1898年、デンマークのValdemar Poulsen(ポールセン:1869 - 1942)によって開発されます。
    彼は、磁性を持つ鋼線や鋼帯を記録媒体に使った磁気ワイアレコーダを発明しました。テープではありません。
    当時は、薄いプラスチックフィルムを作る技術がなかったのです。
    この媒体は、しかしながら、記録密度が低くて雑音も多く、1970年代のオーディオテープに比べて1000倍近く劣っていたと言われています。
     ポールセンは、アメリカのエジソンが発明した蓄音機(Phonograph、1877年)とベルが発明した電話機(Telephone、1876年)に着想を得て、電話機の録音用としてこの装置を開発して特許を取りました。
    彼の録音機は、従って「Telegraphone」(テレグラフォン)と呼ばれました。
    この録音機は、電気増幅器がなくて信号が弱く(増幅に必要な三極真空管の発明は、30年後の1906年でした)、それにワイアが絡まったりして録音の信頼性は低いものでした。
    この装置は、特許が切れる1918年までそれほどの普及を見ず、1924年に製造を中止します。
    アメリカでは、1950年代中頃まで軍を中心として磁気ワイア方式の録音機が使われていたようです。
     
    ■ ドイツのテープレコーダ開発
     
    【磁気テープの開発】
     録音機の研究開発は、「Telegraphone」の特許が切れる1918年以降再び始まり、1932年にドイツ人のエンジニア Fritz Pfleumer(フリッツ・フロイマー:1881.03〜 1945.08)がテープ方式による録音機を発明します。
    この装置は、当初、紙テープを使っていて、これに酸化鉄の磁性体粉をラッカーに溶かして塗布したものでした。
    プラスチックテープは、当時の技術では薄くて強度のあるものが作れなかったのです。
    彼は、紙巻きタバコの薄紙を扱う技術を持っていたようで、この技術を応用したようです。
    彼は、自ら取得した特許をドイツのAEG社(Allgemeine Elektrizitats-Gesellschaft、当時、ドイツの最も大きな電機会社)に売ります。
    AEG社は、これを「Magnetophon(マグネトフォン)」という商品名にして、テープレコーダを世に出しました。
    このテープレコーダは改良が重ねられ、BASF社(Farben社傘下)の協力により磁気テープも改良されて、オーケストラの演奏する交響楽の録音に使われるまでになりました。
    BASF社は大きな化学工業会社で、この会社にはテープの支持体であるアセテートフィルムの製造技術と純度の高い磁性体粉末(カーボニル鉄、Fe(CO)5、Carbonyl Iron)を作る技術を持っていました。
    磁気テープの製造には、良質で安定したフィルムベースが必要だったのです。
    磁気テープの標準支持体であるポリエステルフィルムは、寸法安定性が極めてよく、しかも強靱なので、厚さを薄くしたフィルム状テープを作ることができます。
    しかし、当時はまだこの材料はありませんでした。
    ポリエステルフィルムの登場は、1960年以降で、その材料ができるまではアセテートフィルムが主流となっていました。
    AEG社のマグネトフォンの成功には、BASF社の磁気テープ開発の功績が大きかったと言われています。
    磁性体は、カーボニル鉄からマグネタイト(Fe3O4)に代えられて、改良の足跡を残します。
     
    ■ ACバイアス記録(AC bias method)
     また、磁気媒体への録音技術にも改良が加えられて、音質が向上しました。
    その改良と言うのは、音声信号を磁気媒体に記録する方式の改良です。
    磁気記録は、直流バイアス(DC bias)と呼ばれる手法を経て、交流バイアス(AC bias)法が開発されます。
    これにより、音質が飛躍的に向上しました。
    マイクロホンから拾った音声信号をそのまま磁性体に記録する方法は、磁気記録方式ができた当初から試されていましたが、芳しい結果を残せませんでした。
    磁性体には、ヒステリシスという特性があり、入力の信号に対して正しく比例した記録ができず、微小な入力信号成分は鈍って(なまって)しまいます(右図「通常の磁気録音」参照)。
    微弱な信号では、磁性体に十分な磁力を与えることができないのです。
     磁性体に十分に磁化できるだけの磁束エネルギーを与える方法として、電気信号に予め一定の電圧を与えて下駄を履かせる方法(バイアスをかける方法)が考え出されました(「DCバイアス法による磁気録音」参照)。
    この方法を採用すると、微弱な信号から大きな信号にいたる広い範囲を磁性体の持つリニア(直線)成分に収めることができます。
    この方法は、録音時、入力信号に一定の電圧を加えたので直流バイアス(DC bias)法と呼ばれました。
     
    ■ バイアス法
     DCバイアス法は、1907年、デンマークのValdemar Poulsen(ポールセン)が開発します。デンマークの電話技師であった彼は、自分の発明した録音機でビジネスを成功させようとアメリカに渡りますが、失敗に終わります。
    そうした最中にDCバイアス法を考案して、磁性体を使った録音手法にある程度の目処をたてました。
    DCバイアスによる記録法は、ドイツのテープレコーダ Magnetophon(英語名:Magnetophone)にも採用されました。
    その当時の装置の周波数特性は、50Hz 〜 5kHzで、ダイナミックレンジが40dB、歪率は5%だったそうです。
    ダイナミックレンジが40dBというのは1:100であり、この音圧を記録できたことになります。
    1:1000(= 60dB)程度になると、なんとかものになる値ですから、当時の録音機はまだまだ音質が悪かったと言えましょう。
    現に、マグネトフォンが開発された当時、AEG社はこれを放送向けに使って欲しいという希望を持っていましたが、当時の78回転のレコード(SP盤 = Standard Player Disk)に比べてはるかに音質が悪かったため、採用されませんでした。
     また、DCバイアス法には、決定的な欠点がありました。
    この手法はバイアス電圧をいつも一定にかけているので、音が無いときでも磁気テープには一定の電圧が加わって録音されることになり、無音であるはずの所でもジーとかシー、サーというヒステリシスノイズが乗ってしまうのです。
     
    ■ 交流バイアス法
     その録音品質を変えたのが、交流バイアス法(AC bias method)です。
    ACバイアスは、1935年にBASF社で発見されています。
    開発された当初は製品化にはほど遠い性能で、BASF社はこの研究を中断します。AEG社もBASF社とは別の観点から同じ発見をしますが、これもものになりませんでした。1940年に、ドイツ放送会社のRRG社(Reichs- Rundfunkgesellschaft)がこの方法を再度試みて完成させ、マグネトフォンに移植して製品化にこぎ着けます。
    マグネトフォンに採用されたACバイアス法は、磁気テープ録音性能を飛躍的に向上させました。
    ACバイアスによるテープレコーダの周波数特性は、50Hz 〜 10kHzまで伸び、ダイナミックレンジは 65dB( = 1:1780)になり、歪率は3%に改善されました。65dBの性能はりっぱな数値です。
     ACバイアス法と言うのは、100kHz程度の人間の耳には聞こえない高周波を音声入力信号に重ね合わせて(重畳させて)磁気媒体に録音させるものです。
    この方法によると、100kHzの高周波成分のエンベロープ部(包絡線、側波帯)に2つの音声信号が形成され、ヒステリシス曲線の正極側と負極側にまたいで記録されます(右図「ACバイアス法による磁気録音」参照)。
    2つの記録信号は、再生時に適切な処理が施されると、力強い信号となり、ノイズ成分を除去できるようになります。
    また、無音の場合、2つの音声信号成分の処理によって無電圧信号が得られるので、DCバイアスで問題になったヒステリシスノイズを除去できるメリットも出てきます。
     ACバイアス法は、バイアス信号に100kHzという当時の磁気テープには記録できない高い周波数を使っています。
    これは、当然のことながら正しくは記録できません。
    上の図(上左)にも示したように、磁気テープの記録周波数(M Hz)は、最終的には磁気媒体の記録密度に影響されるものの、それ以前の基本的な約束として、磁気ヘッドのギャップ(d mm)とテープ走行スピード(V m/s)で基本的な録音周波数が決まります。
     
    M = V / (2 x d)    ・・・(Rec -39)
    M: 記録周波数 Hz
    V: テープ速度 mm/s
    d: 磁気ヘッドギャップ mm
     
     一般的な(当時のオーディオ用)磁気ヘッドの空隙(ギャップ)は、10um〜40umであり、テープの走行速度は 45mm/s〜190mm/sです。
    この条件から導き出される記録周波数は、560 Hz〜9.5 kHzとなり、ACバイアス法で用いられる100kHzの周波数はとても記録できない値となります。
    従って、ACバイアス法では、エンベロープ(包絡線)が磁気テープの記録範囲いっぱいに記録されることをねらったものと考えなければなりません。
    この目的のために、記録周波数に影響を与えないはるかに高い(記録周波数の5倍以上)交流を作って音声信号と重ね合わせて、記録信号幅を広くしたものと考えられます。
     交流バイアス法(AC bias method)は、ドイツ、アメリカ、日本で同じ時期に別々に発見されたようです。
     以上をまとめると、ACバイアス法はDCバイアス法に比べ、以下の有効な改善がみとめられます。
     
    【ACバイアス法の特徴】
    ・ 高出力
    ・ S/N比の向上
    ・ ヒステリシスノイズの低減
     
     日本におけるACバイアス法の開発は、1938年に東北大学の永井健三氏と同大学を卒業した安立電気の五十嵐悌二氏らによって行われ、日本での特許が取られています。
    この特許は、戦後、ソニー(当時、東京通信工業株式会社)が取得して、これを使ったテープレコーダが開発されました。
    この特許のおかげ(とトランジスタ技術の開発)で、ソニーは音響録音機器メーカの覇者になって行きました。
     
    ■ 米国の躍進
     Magnetophon(マグネトフォン)は、第二次世界大戦中、ドイツ軍ナチスの重要な戦略機器となり、ナチスの管轄するラジオ放送で多用されるようになりました。
    当時、ナチの情勢を監視していた連合軍でしたが、なぜかテープレコーダの存在を知らず、ラジオ放送は全て生放送かレコード盤(SP盤)の短時間録音放送と信じていたようです。従って、SP盤以上の性能を持った録音などありえないと信じ、交響曲(長い演奏時間)などは生演奏だと信じていたようです。
    米国陸軍通信隊(U.S. Army Signal Corps)のJack Mullin(ジャック・マリン、1913 - 1999)が、終戦間際の1945年にスーツケースに収められた携帯用のAEG社のMagnetophonを2台と、BASF社製の磁気テープ50巻を入手しました。
     Mullinは、この録音機をアメリカに持って帰って徹底的に調べ、改良を施して新たな録音機を作りました。
    この録音機開発に関わったのが、米国AMPEX社です。
    磁気テープに関しては、同国の3M社(Minnesota Mining and Manufacturing Company)が BASF社に劣らないものを開発して、Scotchのブランドで販売を始めました。AMPEX社は、VTR(ビデオテープレコーダ)の開発で有名になった会社ですが、アメリカで最初に高品質のオーディオテープレコーダを作った会社でもあります。
    この会社は、オーディオテープレコーダ開発製造の下地があったので、VTR開発にも着手できました(1952年)。
    しかし、AMPEX社がオーディオテープレコーダを開発したときの人数は、たった6名でした。
    AMPEX社は、1944年に設立された会社で、設立当初は、小型モータと発電機を作っていました。
    AMPEX社は、当時、米国陸軍通信隊の仕事をしていたのでMullinとも面識があり、技術力の高さを買われて彼が持ち帰ったマグネトフォンの製品調査と国産レコーダの開発を任されたのでした。
    出典: Wikipedia Commons
     
     第二次世界大戦中にドイツで開発されたオーディオテープレコーダ(Magnetophon)(1939年)。ラジオ放送局で使用されていた。
     装置のテープ走行系メカニズムやスイッチの配置などを見ると、完成された域に達していることが見て取れる。電子回路は当然真空管を使っていた。
     
    ■ なぜ米国は、ドイツのテープレコーダの存在を知らなかったのか
     ここで、素朴な疑問がわき上がります。
    1943年までの間、アメリカ、そしてフランス、イギリスなどの連合軍は、なぜ高性能なドイツの磁気テープレコーダの存在を知らなかったのでしょうか。
    また、ドイツと比較的親しかった日本においても、1930年代後半から1940年代前半にかけてドイツのMagnetophonを積極的に輸入したという事実は見あたりません。
    当時、音の記録(録音)と言えば、レコード盤(SP盤 = Standard Playing Disk、78回転/分)が主流であり、終戦当時(1945年)、昭和天皇が国民に向かってラジオ放送で訴えた玉音放送にもSP盤に録音したものを使っていました。
    天皇の御言葉は、ラジオの生放送でも磁気テープレコーダによる録音放送でもありませんでした。
    映画の世界でも、無声映画からトーキー(Talkie、1927年)なった時に採用された録音装置は、光学式録音(映画フィルムの片端に音声に応じた濃淡像を焼き付け、エクサイターランプで光の強度情報を電気信号に換える同期再生方式)でした。
     この事実の裏側には、磁気テープレコーダの品質が1930年代後半になるまでかなり悪かったことを伺わせています。
    1930年代後半から1940年代前半にかけて、録音装置の性能をドイツが急速に良くして行った時代を、米国ハリウッドに目を移してみると、ハリウッドは、レコードと光学録音に関心を寄せていました。
    ドイツでテープレコーダが発達するこの時期は、政治的にはナチスが台頭しヒットラーを中心として軍備を拡大して第二次世界大戦に突入して行った時代でした。
    技術的な側面から考えると、この時期、アメリカもヨーロッパも、もちろん日本も録音機に磁性体を使うという方法に難色を示していて、もっぱら光学録音(映画フィルム = サウンドトラック録音)か、もしくは、レコード盤を使った録音に目が向けられていたようです。
    たしかに、当時の磁気録音は音質が悪かったので、長時間録音とか簡単な録音再生、そして携帯に便利という利点以外には、レコード(SP盤)の方が優れていたようです。
    ハリウッドでテープレコーダが注目されるのは、戦後AMPEX社がドイツのMagnetophonを複製してからのことです。
     戦時中の米国軍は、Marvin Camras(1916 - 1995、イリノイ工科大学教授、Armour Research Institute研究員)が開発した磁気ワイアによる録音機を多く採用していました。
    アメリカでは、デンマークのValdemar Poulsen(ポールセン:1869 - 1942)が開発した「Telegraphone」が持ち込まれていたので、その流れができていたようです。磁気ワイアレコーダーは、戦時中でも軍需を中心に1,000台以上生産され、戦後の1956年頃まで生産を続けていたそうです。
    ドイツでは、磁気テープによる録音機が急速な発展を見たのに対し、アメリカの録音機は磁気ワイアのままでした。
    アメリカには、当時、薄いプラスチックフィルムを使って磁気テープを作る技術がありませんでした。
     イギリスは、1935年にMarconi(マルコーニ、電信会社で有名な会社)とその子会社であるBBC(英国放送会社)が中心になって、薄い鉄テープ(フィルムではなく鉄!)を使った録音機を開発したそうです。
    この鉄テープは、3mm幅で50umの厚さがあり、1.5m/s走行で30分間の録音ができたそうです。
    30分の録音ができる鉄テープは、60cmの直径となり9kgの重さだったそうです。1.5m/sというスピードはかなり速い速度です。
    9kgの重さのテープリープを回すのにかなり大きな駆動モータが必要だったでしょう。それに、鉄製のテープでは、走行ノイズ、回転ノイズがすごかったと想像されます。
    この製品は、一般に売り出されることはなく、放送局内で1950年代まで使われていたと言われています。
    こうした事実を見てみると、磁気録音においては、1930年から1940年にかけてドイツが突出した開発力を持っていたと言えましょう。
    しかし、各国はなぜか関心を示しませんでした。
     おかしなことに、AEG社とBASF社が、ACバイアス法録音方式とアセテートフィルムテープを使った録音機「Magnetophon」を開発した1941年当時、ナチスはこの製品を秘密にしませんでした。
    にもかかわらず、この製品をアメリカ側は無視していました。
    この製品は、1941年のベルリンの新聞にも掲載されました。
    第二次大戦が勃発した時期でも、アメリカは6ヶ月間は参戦せず、外交官をベルリンにおいていました。
    外交官が興味を示せば簡単に手に入れることができ、本国に送ることもできたのです。
    にもかかわらず、彼らは、その新製品に対しては、なぜか無関心でした。
     世界が無関心でいる中、ドイツは極めて高性能なテープレコーダを開発して行きました。
     磁気テープによる高品質録音が可能になったのは、以下の3点に集約されます。
      
    【高品質磁気録音の理由】
    1. 秀逸な磁気テープの開発。
    2. ACバイアス法による高品質な録音方式。
    3. 性能の良いモータと三極真空管をはじめとした電気部品の発達。
     
    ■ ドイツのテープレコーダ特許はどうなったか
     第二次世界大戦後のどさくさに紛れて、という言い方が適切かどうかわかりませんが、アメリカはドイツで熟成されたテープレコーダを本国に移植し、同じものを作ってしまいます。
    ドイツでは、テープレコーダの開発にあたって特許を取得して製造をしていたはずでした。
    米国は、戦後、ドイツAEG社やBASF社に対してテープレコーダ開発のための特許料を払ったのでしょうか。
    ドイツは、世界大戦の首謀者、敗戦国という理由により、連合国側から世界大戦前後に得た製品の特許無効を言い渡されていました。
    従って、テープレコーダを開発したAEG、BASF、Agfa各社は、戦後、彼らが開発した特許からの利益を得ることはできませんでした。
    そうした中で、アメリカは、いち早くドイツの技術をコピーして、AMPEXや3Mが高性能のテープレコーダと磁気テープを開発しました。
    そのテープレコーダの開発も、アメリカの大企業が大きな資本を使って進めたというよりも、Jack Mullin と彼を取り巻く小さな会社がMagnetophone(ドイツ名:Magnetophon)を模倣して作り上げた、という見方の方が正しいようです。
     アメリカで作り直されたテープレコーダは、アメリカのゲージ(すなわち117VACの電源、インチサイズの部品)で作り直されました。
    まず、駆動を受け持つモータをドイツの220VAC駆動から米国の商用電源である117VACに変更し、ドイツの50Hzの電源周波数で動くキャプスタン(テープを一定速度で送るローラ)もアメリカの60Hzで正しく回転するように変更されました。
    磁気テープは、ドイツが採用した6.5mm幅をインチに直して1/4インチ(6.35mm)としました。
    テープスピードもドイツの77cm/sに近づけて30インチ/秒(76.2cm/s)としました。
    この規格(1/4インチテープ巾、テープ走行30インチ/秒)が音声テープの標準規格となって、戦後、本家のドイツもこの規格に従うことになりました。
     
    ■ テープ支持体
     テープレコーダがドイツで大成功を収めたのは、プラスチックの薄いフィルムができたからです。
    磁気記録は、1898年にポールセンが提案して以後、磁気ワイア、磁気鋼薄板、紙テープ、プラスチックフィルムなどの変遷を経て、信頼性と使い勝手を向上させました。
     1934年、BASF社は、30um厚のアセテートベースに20um厚のカーボニル鉄(Fe(CO)5、Carbonyl Iron、純度の高い鉄粉、1925年にBASF社で発明)をコーティングしたテープを開発しました。このテープは、6.5mm幅で1m/sのテープ速度、25分間の録音ができました。従ってテープの長さは、1,500mとなり、テープリールは直径30cmとなりました。
     また、1938年には、塩化ビニール(poly vinyl chloride)を用いたテープも開発され、より安定した磁気テープが供給できるようになりました。
    1950年代半ばに、米国のDu Pont社と英国ICI社(Imperial Chemical Industries)がポリエステル(Polyester、Mylar)を開発すると、このフィルムが磁気テープフィルムとして使われるようになりました。
    PETボトルでよく知られるPET(Polyethlene Telephthalate、ポリエチレンテレフタレート)はポリエステルの一種です。
    1989年、VHS全盛の頃に使われていた一般的なビデオテープは、フィルムベース厚14.7um、マルチコート磁性体層厚4.3umの計19um厚のものでした。テープ支持体フィルムは、時代とともに薄くなって行き、DVCAMのテープは6.3umのベース厚(全厚7.0um)となりました。磁性層は何と0.3umです。
    薄いテープの素材としては、先に述べたPETと、PEN(ポリエチレンナフタレート、Polyethylene Naphthalate)が使われています。PENはPETよりも2倍近くのヤング率があり、強靱な特性を持っています。
     
    ■ 磁性体 (2010.09.23追記)
     磁気テープの一般的なものであるフェライト磁性体は、酸化鉄を主成分としたセラミックスであり1927年〜1930年代にかけて開発されました。
    磁気テープが開発された当時の磁性体は、カーボニル鉄(Fe(CO)5、Carbonyl Iron)であり、これは1925年にドイツのBASF社で開発されました。カーボニル鉄は、純鉄の一種の粉状のものであり、テープに塗布するのに非常に有効でした。この磁性体は後に、Fe3O4(マグネタイト、magnetite、天然の磁鉄鉱の主成分)に変わりました。1950年には、米国イリノイ工科大学のMarvin Camras(1916 - 1995)が針状粒子のガンマ-ヘマタイト(γ-Fe2O3、mag hematite)を用いた磁気テープを発表しました。これは、黒色のサビの一種の酸化鉄であるため、使用中に錆びることなく安定しているのが特徴でした。製造コストも安価なため、磁気テープのスタンダードとなったものです。
     磁性体は、その後多くの研究が行われ、クロム(二酸化クロム、1961年、Du Pont開発)を用いたものや、純鉄、コバルト(Avilyn、1973年、TDK開発)などを使ったものが開発されました。
     高密度記録ができる磁性体としては、1960年に、Fe-Ni-Co(ニッケルコバルト磁性体)の合金粒子が開発され、1968年には、CrO2(クローム合金磁性体)合金粉末が開発されました。これらは、γ-ヘマタイトよりも3倍の記録密度を持っていました。
    しかし、これらは磁気保持力も強かったので、バイアスのかけ方や消磁の方法が従来とは異なるものとなりました。
    また、磁性体自体が硬いのでヘッドの摩耗が激しく、これらの磁性体を使う場合は、磁気ヘッドを適切に選ぶ必要がありました。
     磁性体は、1980年代からメタルテープの時代になります。メタルテープは純鉄を使っていました。従来の酸化鉄を用いた磁性体に比べ、純鉄の方が保持力は高く安価にできます。純鉄を用いる問題は純鉄の酸化であり、使用と共に酸化が進んで初期性能を満足させることができなくなることでした。このために、純鉄の酸化を防止するバインダーの技術や多層化の技術が進みました。また、純鉄の他にも強磁性金属としてコバルトと腐食防止用のニッケルを用いて1um以下の微粒子にして、これを塗布するという技術が確立されました。
     1980年代の終わりには、メタル磁性体を蒸着技術によって生成する技術が進み、メタル蒸着テープとして8mmデジタルビデオやDVCAMに利用されるようになりました。メタルテープは、従来の技術を高めた塗布型のMP(Metal Particulate)テープと蒸着技術で作るME(Metal Evaporated)テープの2種類があります。この二種類は、現在(2010年)のデジタルビデオテープの主流になっているものです。
     両者を比較した場合、MEテープの方が新しく、多くの技術的な特徴を持って登場しました。MEテープは、バインダーを使わずにCo-Ni合金の磁性体をテープに直接蒸着させるので、極めて薄くて高い記録密度を持つ磁気テープとなります。
     MPテープは、MEテープよりも先に開発されたものですが、富士フイルムが独自の技術を使ってナノメータレベルの多層膜塗布方式テープを開発してからは、その優秀さが注目されて現在もメタルテープの代表として使用されています。MPテープは、MEテープに比べて生産効率が高いため製造コストが安く、使用時の耐久性も高いため現在も高い評価を受けています。
     
     
    ■ バインダー
     磁気テープでは、磁性体材料も大切ながら、磁性体を支持フィルムに安定して固定させるつなぎ(バインダー)が大変重要な意味を持っていました。磁性体だけでは、支持フィルムにうまく定着できず安定した記録ができないのです。
    初期の磁気テープは、磁性体とバインダーの比率が3:7で、バインダーの方がたくさん含まれていました。
    バインダーの技術が進み、酸化防コーティング技術も進むと、クロームとかコバルトのような高価な材料を使わなくても、バインダーを減らして純鉄をたくさん含有させれば特性が出るようになったので、高価で取り扱いの難しいクロームテープは市場から姿を消していきました。
     磁性体を支持フィルムに塗布する時代から蒸着する時代に変わると、バインダーの意味はなくなってきます。
    ビデオテープは、音声テープよりも遙かに高い周波数で、なおかつS/Nよく記録しなければならないので、DV規格のカムコーダに使われる磁気テープは、バインダーを排除した蒸着テープ(MEテープ)が受け入れられました。
     ただ、2010年にあってもバインダーを使ったメタル塗布型テープ(MPテープ)が使用されています。MEテープは生産効率が悪く、大量生産ができずコスト高だったからです。MEテープが開発されてもMPテープはバインダーの改良が進み、MEテープにひけを取らない高性能なものができてきたため、MPテープとMEテープの双方が存在しています。MPテープに使われるバインダーは、メタル磁性粉を均一に分散させて吸着させる働きの他に、帯電防止、潤滑、塗布補強の働きを持っています。
     MEテープは、バインダを使わずにテープにメタル磁性粉を蒸着させています。そのためにベースフィルムとの蒸着性をよくする必要上、予め下塗り層処理を施しておいてから蒸着を行っています(上図参照)。MEテープは、蒸着層がテープから剥がれたり磁気ヘッドとの接触性や摩耗の不具合があったため、磁気ヘッドと接触する面に炭化水素のアモルファス構造の硬膜処理を施した保護層をもうけています。これをDLC(Diamond Like Carbon)と呼んでいます。この処理はダイアモンドのように硬い構造を持っているためMEテープの問題であった蒸着層の剥がれや静止モードでのテープの摩耗を抑えることに成功しました。
     
     
    ▲ 磁気テープ - アナログからデジタルへ
     磁気テープはドイツで発明され、録音機器の発展に呼応してドイツ、米国、日本で進化しました。
    日本でのオーディオ・ビデオテープの発展は目を見張るものがありました。
    ソニーを始め、松下(現パナソニック)、TDK、日立マクセル、富士フィルム、バインダー技術の花王、ベースフィルムの東レなど、優良なメーカが品質の良い磁気テープを開発し、全世界に供給しました。
    日本のメーカによる磁気テープの品質が良いのは、磁性体材料開発に優秀な技術者が集まっていたことと、製造品質においても類い希な技術を有していたことによります。
     そうした磁気テープも、1990年代後半あたりから転換点を迎えます。時代の趨勢により、従来のオーディオ用途の磁気テープが、CDやHDD、フラッシュメモリーに奪われ、VHSを中心としたビデオ録画の分野においてもDVDなどのポリカーボネート記録媒体が普及したため需要が減少してしまったのです。
     現在(2008年)の磁気テープは、デジタルカムコーダのデジタル磁気テープ(DV)や、放送局用録画テープ、そして、コンピュータ分野のストレージデータテープに需要を伸ばしているに過ぎず、需要の絶対量は減ってきています。
    そして、磁気テープもデジタルの時代を迎えることになりました。
     
     
     
    ▲ ビデオテープレコーダの開発 - 米国AMPEX社  (2010.08.20追記)
     電気信号による画像の保存は、ビデオテープレコーダの発明で光明をみます。この技術は、磁気録音装置の延長線にあるもので、1956年以降のことです。オーディオ記録とビデオ記録では要求される技術が桁違いに異なりました。ビデオテープレコーダの開発には多くの技術的問題があり、それを解決するため多額の開発費と時間がかかりました。
     その困難を乗り越えて世界で初めてビデオテープレコーダを開発したのは、米国AMPEX社でした。
     
    ■ 回転ドラムヘッド
     酸化鉄磁性体を使ったテープを使って、映像が電子的に記録できるようになったのは1956年のことです。
    米国のAMPEX社(1944年設立、米国カルフォルニア州サンカルロス)が、テレビカメラでとらえた電子画像をテープに録画する装置の開発に成功したのです。映像は情報が多いため、オーディオテープのような記録方式ではとても満足いく画像を記録することはできません。
    AMPEX社は、録画ヘッドを14,400rpm(240Hz、ビデオ信号のフィールド画像60フィールド/秒の4倍)で回転させて、そのヘッドをテープの走行方向に対して垂直にスキャンするという方式を考え出しました。
    通常、オーディオに使われている録音・再生ヘッドは、移動したり回転したりはしません。固定です。固定ヘッドの上を磁気テープが走行して音声信号を記録し再生するのが一般的な方法でした。しかし、ビデオ信号は情報が多いので(記録周波数が高いので)、この方法に頼っていたのではとても周波数帯域を確保することができませんでした。
     磁気ヘッドを回転させる発想は、奇抜なものだったと言えます。
     記録周波数を上げる方法としては、ヘッドを複数配置してテープ速度を上げてマルチチャンネル記録すると言うのが常套手段です(現在のコンピュータの磁気テープ装置はそのようにしています。MT参照)。しかし、そうは言ってもテープ走行を10m/sで走らせて、その上、そのスピードを一定にさせるという技術が当時できなかったのでしょう。10m/sというのはかなりの速度です。このスピードで10分程度の画像を録画したとしたらどのくらいの容量になるでしょう。6,000mもの長さになります。VHSテープが240mですからVHSテープよりもさらに25倍もの長さが必要となり、その長さでも10分しか録画できないのです。そうした方法よりも、回転ドラムにヘッドを取り付けて、テープと磁気ヘッドの相対速度を上げて周波数帯域をかせぐ方がより現実的だとAMPEX社の技術者は考えました。
     磁気ヘッドが回転して磁気テープに情報を記録する方式は、記録をとぎれとぎれに行うことになります。しかしテレビの映像信号は走査線で画面を構成していたので、走査線1本分をヘッドがテープをスキャンする時間にあてがえば問題となりませんでした。
     この考え方をもとにして、家庭用VTRで一般的になるVHSもベータもU-maticもすべて回転ドラム方式を採用するようになりました。
    ベータ方式やVHS方式では、さらに周波数帯域を上げるために斜めにテープをスキャンするヘリカルスキャン方式を採用しました。VHSは、この方法によってテープとヘッドの相対速度を5.8m/sとしています。
    ちなみに、オーディオテープは、1/4インチ(6.35mm幅)のテープを使った30インチ/秒(76cm/s)での走行が最高でした。
    テープだけの走行では、1m/sの速度が耐久性を含めた運用上の限界だったのかもしれません。
     回転ドラムによる磁気記録を最初に開発したAMPEX社は、テープ走行に対してドラムが垂直に横切るバーティカルスキャン(vertical scanning, transverse scanning)方式を採用しました。これは、回転ドラムの周囲90°毎に4つの磁気ヘッドを配置して、ドラムが90度回転するごとにテープがヘッドの厚さぶんだけ走行移動するようにし、4つのヘッドのいずれかが常時磁気テープにコンタクトするように考案されていました。使用した磁気テープは、2インチ(50.8mm)幅のある太いものでした。このビデオテープレコーダは、2 inch Quadruplex Videotape Recorderと呼ばれました。テープ走行とドラムヘッドの回転(14,400rpm)によって作られるヘッドとテープの相対速度は40m/sとなりました。固定ヘッドではこの速度はとても達成できない値です。この記録速度によって、約13MHzの信号を記録・再生できるようになりました。
     2インチ(50.8mm)巾のテープは両端にオーディオトラックとコントロールトラック信号、それにブランク領域を確保する関係上、1 - 4/5 インチ(48.26 mm)巾が映像記録ができる1ライン( = トラック)となります。実際は、4つのヘッドが順番にトラックに入って来るので1ヘッドが1トラックに記録する長さは、1 5/8 インチ(41.275 mm)となります。回転ドラムは1秒間に240回まわりますので、ヘッドは1秒間に960回トラックをなぞって行きます。テレビ映像は1秒間に30コマの映像を作っているので1コマのテレビ映像は、32トラックで構成されることになります。
     
    【AMPEX社開発のVTR概略仕様】
    ・ 使用テープ: 2インチ巾(50.8mm)磁気テープ、4800ft(1500m)、1時間録画
    ・ 磁気ヘッド: 回転ドラム式
    ・ 回転ドラム径: φ52.55mm(ヘッド・テープスピードより算出)
    ・ ヘッド数: 4
    ・ スキャン方式: 垂直スキャン(vertical scan)方式
    ・ ドラム回転数: 240 Hz(14,400 rpm)
    ・ ヘッド - テープ相対速度: 1,560インチ/秒(39.6 m/s)
    ・ テープ走行速度: 15インチ/秒(0.381 m/s)
    ・ 信号記録帯域: 13MHz (ヘッドギャップを1.5umとして換算)
    ・ 記録方式; FM(周波数変調)方式
    ・ トラック巾: 10 mil(254 um)
    ・ トラックピッチ: 15 mil (381 um)
     
     
     
     
    【ビデオテープレコーダの開発背景】
     ビデオテープレコーダが開発された直接の動機は、米国のテレビ放送の時間差にありました。アメリカは国土が広いため、ニューヨークのある東海岸とロスアンゼルスのある西海岸では4時間の時差があります。プライムタイム(ゴールデンアワー)でニュース番組を流したり、しゃれたトーク番組を放送しても4時間の時差のある反対側では真夜中になってしまったり、まだ人々が働いている時間帯だったりするわけです。こうした時間差を克服するために、映像を蓄えてタイムリーに流すことができたら便利だと彼らは考えました。
     こうした要求に応えるためAMPEX社が開発に乗り出し、1956年11月30日、CBSの「the Douglas Edwards with the News」(ダグラス・エドワーズのニュース)においてビデオテープレコーダを使った放送を初めて行いました。もちろん白黒画像でした。
     初期の頃のビデオテープレコーダは非常に高価でした。それ以上に、消耗品である2インチテープがとても高価であったと言われています。1時間の録画ができるオープンリール式2インチビデオテープが当時、日本で100万円相当したそうです。当時の大卒者の初任給が1〜2万円だったことを考えると、現在(2009年)の価格にして1500万円相当になります。1時間の録画に1500万円をかけるというのはとんでもない話だったに違いありません。そのために、当時はビデオテープを使い回しをして、録画しては消して、上書きの録画を行っていました。その結果、1960年代のテレビ映像の多くは、録画はされたけれども次々と消されてしまい、記録として残せなかったという残念なことになりました。
     また、AMPEXのVTR装置は非常に大きくて重く、巾が1m50cm、高さが1m60cmあったそうです。大きな本棚のようなキャビネットの装置で、そこに重さ5.5kgもあるビデオテープが鎮座していました。ビデオテープを取り替えるときは、両手でテープを胸の高さまで持ち上げて足下にあるペダルでバキュームロックを外して取り替えていたそうです。
     そしてまた、回転するビデオヘッドのアライメント調整がとてもシビアで、使用する部屋は一定の温度と湿度を保たないと正常に動作しなかったと言われています。回転ヘッドは消耗品で、テープとの摩耗でヘッドが目詰まりしたりアライメントが狂ったりします。そうした場合の調整はとても難しくて現場ではできないので、テレビ局はヘッドアセンブリを常時保管していて、交換が必要な時にアセンブリ毎交換していたと言います。
     そうした中で、ソニーがトランジスタを使った放送用2インチテープビデオテープレコーダを開発し(1961年)、3/4インチテープをカセットに入れたU-maticを開発し(1970年)、1/2インチ幅のベータ方式のベータカムを開発(1975年)して行きました。装置もコンパクトになり信頼性を増し、使用するテープもどんどん安価になっていきました。1980年代後半には、磁気テープを使ったデジタル録画ができるようになりました。
     
     ▲ ドルビー(Ray Dolby)氏のこと
     AMPEX社でVTRを開発したエンジニアの一人にRay Dolby氏がいます。
    映像分野では、ドルビー(Ray Dolby:1933.01〜)氏の業績はそれほど高くはなく、音響分野でノイズリダクションシステムを開発した人として、ドルビーシステムの名前でなじみが深いと思います。そのドルビー氏は、上記のAMPEX社に高校時代アルバイト生として、そして夏休みには長期のアルバイトという形でオーディオテープレコーダの開発を手伝っていました。彼は、オレゴン州ポートランドで生まれてサンフランシスコで育ちました。また、彼がスタンフォード大学(1951-52、1953 - 1957)に入った時もAMPEX社と関わり続け、アルバイトの形でAMPEX社のビデオテープレコーダの開発に関わりました。彼はスタンフォード大学の電気工学科を卒業し、英国に渡ってケンブリッジ大学に通い物理学で博士号を取得します。ケンブリッジ大学を出た後は、インド政府の招きで技術アドバイザーをしていましたが、1965年に英国に戻りドルビー研究所(Dolby Laboratories)を設立します。設立した年に、音響のノイズリダクション方式であるドルビーサウンドシステムを発表しました。この方式は映画の音響システムに採用されて大きな反響を呼び、彼の音響工学に対する技術を揺るぎないものにしました。
     私がここで話題にしたいのは、ドルビーシステムのことではなく、映像の磁気記録装置に関わった若き日のドルビー氏のことです。
    AMPEX社のビデオテープレコーダの開発は1952年に始まります。
    完成の年1956年から遡って4年前にプロジェクトがスタートしました。4年の開発年月が長いと見るべきなのか妥当と見るべきなのかはよくわかりませんが、AMPEX社の社内事情やプロジェクトの中断などがあって4年という歳月が費やされました。若きエンジニアのドルビーが加わっていなければ、AMPEXのVTR完成はさらに遅れていただろうと言われています。
     AMPEX社は1944年に創設され、小型モータと発電機を作る会社としてスタートしました。6人の会社でした。同社は、米国陸軍通信部隊と取引があった関係で、米軍が第二次大戦中にドイツから持ち帰ったテープレコーダの国産化を託され、1947年から開発を始め、1年後の1948年に完成してABC(米国の放送会社)に採用されました。少人数の技術集団でしたが技術力は高かったようです。
     こうしてAMPEX社はテープレコーダ製造会社として発展を続け、放送局用のテープレコーダのみならず、米軍の計測用テープレコーダや、ハリウッドの映画音声システムを手がけるようになりました。
    ドルビー氏は、AMPEX社がオーディオテープレコーダの開発を始めた当初からアルバイトとして同社に出入りし音響工学の知識を深めて行ったようです。AMPEX社がビデオテープレコーダの開発を始めた1952年は、ドルビー氏がスタンフォード大学の2年生でした。19才の学生ですからまだまともなエンジニアリングの経験と実績は乏しかったと思いますが、技術的アプローチと発想の才に秀でていたようで、瞬く間にプロジェクトの中核となって行きます。
    彼は、その仕事にのめり込みすぎて大学を中退してしまいます。
    おかげで大学生の特典である兵役の免除が切れてしまい、1953年の3月に徴兵されてしまいました。彼が徴兵に出ている間、AMPEX社のプロジェクトは、一進一退を繰り返し、またAMPEX社そのものの経営方針の都合で、そのプロジェクトが一時棚上げされて中断もしました。
     1954年1月にプロジェクトが再開され、1955年の春にドルビー氏が兵役から帰って来ました。
    その1年後にビデオテープレコーダは完成します。
    ドルビー氏は、今度は大学に通いながらアルバイトという形でプロジェクトに参加し、FM変調回路(周波数変調方式、ラジオ放送のFM放送方式に似た方式)を用いたシンプル化設計に能力を発揮しました。ビデオ信号をテープに録画する上で、FMによる信号記録(録画)は一つの技術革新でした。この技術によって高い周波数の映像信号を録画し再生できるようになりました。
     
     
     
    ▲ FM記録(Frequency Modulation Recording)   (2010.08.21記)(2010.08.24追記)
     FM記録は、AMPEX社がビデオテープレコーダ開発に採用した磁気テープへの信号記録方式です。
    従来のオーディオ録音技術を使ったのではとても満足な映像記録ができないために、この手法が開発されました。
    VTRの開発にあたっては、広帯域信号記録を行うためにまず磁気ヘッドの高速化が図られました。回転磁気ヘッドの採用により、テープとヘッドの相対速度を1,560インチ/秒(39.6 m/s)として広帯域録画に対応させました。AMPEXが開発したビデオテープレコーダは、13MHzの信号帯域を録画できる能力を持っていました。この録画信号帯域とテープ・ヘッド相対速度から、ヘッドギャップ長を求めると、1.52umのギャップ長となります。
     
       d = V/(2 x F) = 39.6E6 um / (2 x 13 MHz
            = 1.52 um
      
    AMPEXは、この方式によって広帯域の録画性能を満たしました。(VHS方式の磁気ヘッドでは、さらに狭い0.3umのギャップ長になっています。)
     NTSC信号の信号帯域を見てみますと、規格で4.2MHzと決められています(NTSC規格の水平解像力参照)。AMPEX社はこの帯域の3倍強を持つ磁気ヘッドとビデオテープの開発を行ったことになります。
    なぜ、仕様をオーバーするような開発を行ったのでしょうか。
    それは、オーディオで使われているACバイアス法を映像記録に用いると、帯域が大幅に不足して、さらに低い周波数領域では歪みも大きくなってしまう問題があったからです。
    このような理由から、ACバイアス法を諦めて周波数変調による記録法(FM記録)を採用することにしたのです。
     
     FM(Frequency Modulation)とは、入力信号(振幅情報)を周波数に変換する手法で、振幅の大きいものは周波数を高くして小さいものは周波数を低くする信号変換手法です。アナログテレビ放送でもこの方法は採用されていて、FM信号による映像信号を無線を使って送信しています。ラジオ放送にもFM放送があり、同様の方式を取っています。FM記録はラジオ放送を聞いてわかるように、ノイズが少なく高品質です。
    扱う信号帯域を広く取ることができ、ノイズに強いというのがFM記録の特徴です。
     AMPEX社は、FM記録を行うにあたって基本周波数(搬送波 = carrier)を8.6MHzとしました。この周波数を中心として入力信号を上下の側波帯(±4.2MHz)を乗せると、
      4.4MHz <(8.6MHz) < 12.8MHz
    が磁気テープに記録される周波数帯域となります。磁気テープには、常時この範囲の周波数が記録されることになります。
    AMPEX社が13MHzの記録帯域を目指した理由がここにあります。
     テレビ画像の周波数を考えるとき、モノトーンの部位から細かい部位までの画像周波数は30Hz〜4,200,000Hzとなります。このレンジは、1:140,000であり、103dBに相当します。このダイナミックレンジをカバーする磁気記録など当時では不可能に近い値でした。多くの電子機器は、60dB(1:1,000)程度の機器を作るのがやっとで、100dB(1:100,000)を越えるものの開発は現実性が極めて乏しいと言わざるを得なかったのです。このテレビ画像の周波数をFM記録にすると、4.4:12.8 = 1:2.9( = 9.3dB)となり、狭いダイナミックレンジでも十分に映像を記録できることになります。FM記録の大きな特徴がここにありました。FM変調は、周波数のゲタを履かせて周波数成分のダイナミックレンジを見かけ上小さくする手法でした。
    この手法は、以降、VHS方式のVTRにも採用されて行きました。アナログ信号処理の救世主のような存在がFM記録だったのです。
     
     
     
     
     
     
     ▲ MT(Magnetic Tape)- コンピュータ用デジタル磁気テープ (2008.08.18追記)(2010.12.12追記)
     磁気テープを使った記録装置について、今度は映像の世界からコンピュータの世界に目を向けて見ることにします。
     磁気テープは、アナログ記録からスタートしました。アナログ記録では、信号の強度を磁化の強さとして記録していました。
    デジタル記録が大前提であるコンピュータ用外部記録としても磁気テープは比較的早くから注目されていました。
     
    ■ IBM726
     コンピュータ用の外部記憶装置として開発された最初の磁気テープ記録装置は、IBM社の開発したモデル726というものです。
    モデル726が完成したのは1952年のことですから、磁気テープ(セルロース・アセテートベース)が米国で販売されるようになってすぐにこの装置の開発に入った感じを受けます。
     1952年と言えば、まだ本格的な電子計算機は市販化されていません。当時の電子計算機はまだ試作の域を出ていなかったのです。IBMも、この当時は大型計算機を作っておらず、レミントンランド社(後、ユニシス社)の電子計算機を自社のパンチカードと組み合わせて売っていました。そのIBM社が自社の電子計算機(IBM701)を開発し、それにIBM726を組み合わせて販売したのです。
    もちろんIBM726は新しい装置ですから、高価であり信頼性もわかっていなかったので、長らくはパンチカードシステム(PCS = Punch Card System、URE = Unit Record Equipment)が主流の座を占めて行きます。
    しかし、1952年の比較的早い時期に、磁気テープを使ったデジタルデータ記憶装置を開発したのは特筆すべきことと言えましょう。
    大型計算機が、商業ベースに乗ってその存在を確立するのは、1964年のIBM360からです。
    この時代にあってもデータの入出力装置の主流はパンチカードでした。パンチカードの方が安価で使いやすかったのです。
    モデル726のキーコンポーネントは、磁気テープであり、高速で安定した品質を保つため、IBMは3M社にコンピュータ用ストレージ専用のテープを注文しました。テープは表面にわずかの異物の付着を認めず、それは、マンハッタンとポキプシー(ニューヨーク州)間の96kmの道路をわずかの小石をも認めない品質であったと言われています。そのため、IBM社はポキプシーにクリーンルーム装備を備えたテープコーティング工場を建設し、品質の向上に努めました。精密な検査を経て製造される磁気テープは極めて高価なものでした。
     音声記録装置としての磁気テープがアナログ記録だったのに対し、IBMは最初からデジタル記録を行いました。
    ただ、当時のデジタル記録はそれほど高速かつ高密度にできたわけではありませんでした。
    IBM726は、45,000ビット/秒の読み書き能力を持っていました。現在の音楽用CDの記録速度が4Mビット/秒(データ実効値は1.4112Mbps)であるので、IBM726の記録速度はCDの性能の1/31程度でした。その上、記録時間は3分程度でした。この事実は、この時代の磁気テープで音声デジタル録音をすることなど全く不可能であり、音声技術よりも帯域の広い映像技術の確立はほど遠いことを物語っています。
    IBMは、磁気テープを使った記録装置を開発していくにあたり、テープ幅を1/2インチ(12.7mm)としました。
    これは、現在にいたるまで終始一貫したものであり、オープンリールからカートリッジ仕様へと外装は変わっても同じテープ幅のものが使い続けられています。
     
    ■ モデル726のデータアクセス
    モデル726は、テープ幅1/2インチ(12.7mm)に7トラック(6ビット + 1パリティ)の記録方式を採用しました。
    テープリールの大きさは直径300mmであり、テープの長さは1,200フィート(366m長)でした。両腕で持ち上げてずしりとする重さでした。記録密度は、600BPI(bit per inch)であり、75インチ/秒(1.905m/s)のテープ速度で書き込みを行いました。
    この性能から計算すると、記録速度は45,000ビット/秒(5.6KB/秒)となり、1,200フィート(366m長)のテープには約3分にわたって1.08MBのデータが保存できることになります。CDの容量の1/600にも満たないこの容量でも、1950年代の記録媒体としてはおそろしく大きなものでした。
     モデル726磁気テープ装置には、大きな特徴がありました。それは、テープを大きくU字にたるませる機構でした。
    上右図に示すように、磁気テープの走行経路では300mm径の磁気テープリールから磁気ヘッドに導かれる途中に、500mm程度のテープのたるみを作るスペースを取っています。また、磁気ヘッドから巻き取りリール(テイクアップリール)に行く途中にも同様のスペースが設けられています。
    テープのU字状のたるみは、真空ポンプを使ってテープを吸い寄せて作っていました。なぜ、このような大きなたるみを作ったかというと、当時の磁気テープはデータを頻繁に書き込んだり読み出したりする装置であったため、テープは頻繁にデータアクセスがなされ、その都度テープはストップ&ゴー(停止と走行)が繰り返されました。このため、テープ走行経路にこうした緩衝(バッファ、たるみ)を設けないとテープをレスポンス良く高速に動かすことができなかったのです。現在の我々が考える磁気テープ装置は、システムのバックアップとして一気にデータを書き込んだり読み出したりするものと考えがちですが、当時は都度データを読み書きする装置だったのです。
     モデル726は、この方式によって、1/100秒でデータをアクセスすることを可能にしました。テープは1/100秒で0.5インチ(12.7mm)進むので、この間はデータを記録することができません。
    モデル726では、データを細切れにして保存するため、データブロック間はこの分だけのスペースを設けていました。
    1960年代から1980年代の大型計算機室には、巨大な磁気テープ装置群が鎮座していて、高速でストップ&ゴーを繰り返しながらデータをアクセスしていました。その動きが目新しかったために、磁気テープ装置とその動きがコンピュータそのものの代名詞のようにメディアに取り上げられていました。
     
     
    LTO規格のデータストレージテープ。
    1巻方式のカセットに収納されている。
    これを書き込み/読み出し装置に挿入して使用する。
    ■ LTO(Linear Tape-Open)Ultrium  (2010.12.12追記)
     磁気テープは、時代と共にマルチヘッドによる高密度高速記録ができるようになりました。
    2009年当時にあっても1/2インチ(12.7mm)磁気テープは、メインフレーム(大型コンピュータ)のバックアップ記録装置として使われ続けています。
    新しい磁気テープは、LTO(Linear Tape-Open)Ultrium規格になっています(右図、下図参照)。
    この規格は、1998年にIBM、HP、Seagateの3社が策定したオープン規格です。
    この規格の基礎となっているのは、IBMが1980年代より採用しているカートリッジ3480です。
    従来、コンピュータデータストレージの磁気テープには共通の規格というものがなかったため、利権争いの温床となっていました。これをユーザが使いやすいように規格を練り直し、オープン化したのがこの規格です。
     この規格は時代とともに進化してLTO-1からLTO-5まで発展し、2010年以降もLTO-6(3.2 TB容量)、LTO-7(6.4TB容量)、LTO-8(12.8TB容量)の仕様策定が準備されています。
    2010年に策定されたLTO-5規格を以下に示します。
     
    ・発売日: 2010年
    ・カートリッジ寸法: 102.0 x 105.4 x 21.5 mm
    ・保存容量: 1.5TB
    ・テープ巾: 1/2インチ(12.7mm)
    ・最大データ速度: 140MB/s
    ・テープ走行速度: 3.8m/s 〜 7.5m/s
    ・テープの厚さ: 6.6um
    ・テープ長さ: 846m
    ・テープのトラック数: 1,280
    ・書き込み端子数: 16
    ・バンド当たりのラップ数: 20
    ・記録密度: 15,142 bits/mm
    ・データ通信インタフェース: Serial-attached SCSI (SAS)
     
     
     
     この規格では、カートリッジ式テープ内に1.5TBのデータを保存することができ、最大140MB/秒の記録速度を持っています。
    また、この規格はテープを4バンドに分けて、1バンド当たり16chのヘッドを使ってテープ上を20回行き来(10往復)して、データを書き込み/読み出しを行っています。16chの磁気ヘッドは、テープの往復にミクロン単位の位置制御を行い、最適なトラック位置でのデータ読み書きを行っています。下図にテープのトラックパターンを示します。12.7mm幅のテープには、1,280トラックが走り、テープの両端には走行安定のためのサーボ(制御)信号が記録されています。トラック一つ分の幅は5um程度となり、これをマルチチャンネル磁気ヘッドを使って読み書きを行っています。
    カートリッジ内のテープは、データ読み書きのためにカートリッジから出たり入ったりの繰り返しを煩雑に行うことになります(serpentine recording = サーペンタイン法。サーペンタインは蛇の蛇行運動の意味)。そのスピードは、3.8m/s〜7.5m/sととても速く、磁気テープの走行では最速です。
     このテープの持つデータ容量を見る限り、現在注目を浴びているDVDやHDDと比較しても記録容量や記録速度、メディアの価格などの点で依然として磁気テープのメリットがあることに気づかされます。LTO-5では、最大140MB/sの記録速度を持ちます。この速度はHDDの4倍の記録速度に相当します。メディアも1.5TB(1巻)当たり15,000円程度です。1.5TB容量は、100円程度のDVDだと320ヶ必要ですから、金額にして32,000円ほどになり、保管も大変ですからLTOのメリットは十分にあります。ただし、当然のことながら、テープは連続した一連の記録が得意であり、任意の部位を取り出したりファイルを入れ替えたり(ランダムアクセス)することはできません。従って、膨大なデータをバックアップする目的に威力を発揮します。
     

     

     
     
     
    ▲ 磁気テープのデジタル記録とビデオ録画
     コンピュータに使われてきた磁気テープ装置と、テレビ分野で使われてきた映像を記録する磁気テープ(ビデオテープ)装置は、それぞれ別々の目的を持って開発されたもので、それぞれのエンジニアが心血を注いで開発を続けてきたものです。
    磁気記録の本質は違いないものの、記録方式が異なっていたために開発はそれぞれ独立した道を歩んで行きました。
     
     両者の大きな違いは、出発点がデジタル記録かアナログ記録かです。
    そして、デジタル記録はコンピュータのデータ保存が出発点であり、アナログ記録は映像(もしくは音声)記録が出発点でした。
     
    コンピュータの周辺装置としての磁気記録は、デジタル記録が大前提なのでこれは譲る事ができません。
    方やビデオ録画はNTSC規格を代表とするビデオ信号の記録が大前提であり、規格当初から2011年の放送終了に至るまでアナログ信号です。
    そして、ビデオ信号は1秒間に30フレーム、走査線数525本という大きな決まりがあり、これをカバーする記録・再生を行わなければなりません。ビデオ録画には、開発当初から周波数帯域の高い性能と長時間記録性能が求められていました。これをデジタルで行う事など全く不可能でした。
    米国AMPEX社がビデオテープレコーダを開発した1956年の電子部品と言えば、真空管が全盛の時代でした。
    その時代に、9MHzの映像信号をテープに記録して再生するという装置を完成しなければなりませんでした。
    この映像情報をデジタル信号に直して保存するとすると、1情報を8ビット(白黒256階調)としても72Mビット/秒の信号処理を必要とします。圧縮など思いもよらない時代でした。
    周波数の高いテレビ信号にあっては、これを組み伏せるだけの技術がデジタル信号処理にはなく、追いつくことなど到底できない仕様上の大きな障害でした。
    アナログはデジタルに比べて高速処理ができるメリットがあったのです。ただ、アナログ処理はノイズが入り込む要素が非常に多く、転送やコピーを繰り返す毎に品質が劣化します。デジタル処理は、基本的に信号劣化がありません。しかし、デジタル処理には装置の電子処理の負荷が相当にかかります。
     
      高速記録の観点から言うと、アナログの方がデジタルよりも速く行うことができました。
      そういう時代が長く続いたのです。
     
     映像のデジタル録画は、1982年にD1という規格で現れます。これは、放送局のVTRに採用された規格です。
    これは、VHSビデオが開発された1976年の6年後の事です。
    1970年代から1980年代、VTRがすごい勢いをもって技術力を高めて行ったことがこのことから理解できます。
     
     
    ▲ ビデオテープレコーダ - VHS vs ベータ  
     ここで、ビデオテープレコーダの代表的規格となったVHS規格とベータ規格について触れます。
    VHS規格のビデオテープレコーダは、1976年に日本ビクターによって開発されます。VHSは、Video Home Systemの略と言われていますが、開発初期はVideo Helical Scanの略であったと言われています。
    米国AMPEX社が2インチ(50.8mm)幅の磁気テープを使って、回転ビデオヘッドを垂直にスキャン(transverse scanning)する機構のビデオテープレコーダを完成したのを契機として、よりコンパクトな1/2インチ(12.7mm)テープ幅を使ったカセットに収めるビデオ録画装置が開発されました。
    放送局用では、3/4インチ(19.05mm)幅テープをカセットに入れたU-matic(1970年開発、主開発:ソニー、ファミリー:松下電器産業 = パナソニック、日本ビクター、海外5社)が一般的であったので、テープ巾をさらに小さくした1/2インチ(12.7mm)のカセットテープを使ったコンシューマ用(民生用)として開発されました。
    磁気テープによる映像録画は、アンペックス社のVTR開発以降、磁気ヘッドが回転するスキャン方式が定着します。ソニーが放送局用に1976年に開発した1インチ(25.4mm)VTRは、直径134mmの回転ドラムのほぼ全周(354°)を巻き付ける「C」フォーマット(もしくはオメガ = Ω 巻き)でした。
     
     
     
    VHSフォーマット概要
     * 開発年: 1976年
     * 主開発メーカ: 日本ビクター
     * 陣営: 松下電器(現パナソニック)、日立製作所、
          三菱電機、シャープ、赤井電機
     
     * 記録方式:ヘリカルスキャン方式
     * 記録ヘッド数:2
     * ヘッドドラム直径:62mm
     * ヘッドドラム回転数:29.97Hz (約1,800rpm)
     * カセットテープサイズ: 188mm×104mm×25mm
     * テープ幅:1/2インチ(12.7mm)
     *テープ送り速度:約33.34mm/s(標準)
     * 記録トラック幅:約58um(標準)
     * 信号方式
      VHS方式
       ■ 映像信号:周波数変調 (FM) シンクチップ3.4MHz
         白ピーク:4.4MHz
         クロマ信号:低域変換方式
      S-VHS方式
       ■ 映像信号:周波数変調 (FM) シンクチップ:5.4MHz
         白ピーク:7.0MHz
         クロマ信号:低域変換方式
       ■ 音声信号:2チャンネル長手方向記録
        (ノーマル音声トラックの場合)
    ベータフォーマットの概要
     * 開発年: 1975年
     * 主開発メーカ: ソニー
     * 陣営: 東芝、三洋電機、日本電気、アイワ、
          パイオニア
      
     * 記録方式:ヘリカルスキャン方式
     * 記録ヘッド数:2
     * ヘッドドラム直径:約74mm
     * ヘッドドラム回転数:29.97Hz (約1,800rpm)
     * カセットテープサイズ: 156mm×96mm×25mm 
     * テープ幅:1/2インチ(12.7mm)
     * テープ送り速度:約40mm/s
     * 記録トラック幅:約58um
     * 信号方式:
      ■ 映像信号:周波数変調 (FM) シンクチップ:3.6MHz
        白ピーク:4.8MHz
        クロマ信号:低域変換方式
      ■ 音声信号:2チャンネル長手方向記録
     
     VHSとベータのビデオ戦争は、ユーザを巻き込んだ激しいシェア争奪戦でした。(ビデオ戦争:1976年〜1988年)
    最終的に民生用のビデオ装置は、VHSが勝利しました。技術の高さとマーケッティングの巧みさで連戦連勝を続けるソニーには相当に手痛い敗北でした。
    しかしその勝利もつかの間、次なる新しい技術 = デジタル映像の台頭により、アナログ記録であるVHS装置も終焉の時期を迎えなければなりませんでした。
    2008年1月に、VHSによるVTRの生産は全て終了しました。
    VHSは、32年の歴史だったと言うことができるでしょうか。
    アナログのVTRは姿を消しましたが、デジタル方式によるVTRは、現在も主流で使われています。
    1/4インチ(6.35mm)幅のメタルテープ(miniDV)を使用したデジタルビデオカメラには、回転ドラムヘッドによるデジタル記録方式を採用しています。放送局用のデジタルビデオコーダにもデジタルビデオテープが使われています。
     1/2インチカセット方式のビデオ録画装置開発は、映像の歴史に大きな足跡を残しました。これは、真にビデオの時代の到来を告げた出来事だったと言っても過言ではないでしょう。
    一般家庭に普及することがこれほどの効果をもたらすのか、と思い知らされた出来事でした。
    また、民生用のVTRの普及に伴ってビデオ関連装置が派生的に発展し、CCDカメラの熟成を促しました。CCDカメラと小型ビデオテープレコーダ(8mmビデオ)の開発と成功は、「ビデオ」、「CCD」という言葉を生活の底辺まで定着させ使用用途を拡大させた
    のみならず、そこで得た技術と利益を放送局用のカメラやビデオテープレコーダへ還元することができました。
    市場の拡大により、CCDカメラは格段に安くなり、手軽にビデオ画像を扱うことができるようになりました。
     コンピュータ(CPU)の発展は、デジタル映像技術にさらに拍車をかけました。
    コンピュータの発展なくして、今のデジタル映像の発展はないでしょう。高画質の映像が得られても、簡単に見ることができなれば利用価値がないからです。
     
     
     
    ▲ DV規格とメタルテープ
     磁気テープは、ビデオ録画媒体として発展を遂げ、1982年にはVHSテープを利用した200コマ/秒の高速度ビデオカメラが生まれました。1984年には専用の高密度磁気テープを使った2,000コマ/秒の高速度カメラも現れました。磁気テープは長時間、高速録画という要求に見事に応えた記録媒体でした。現在の放送局用のデジタルハイビジョン用の映像記録媒体にも磁気テープが使われています。しかし、磁気テープと言っても中身は大分変わりました。
     磁気テープ開発の大きな技術革新は、記録方式がアナログ記録からデジタルになったことと、磁気テープ自体がコンパクトになりメタル蒸着テープが採用されたことです。
    我々の使い勝手の面からではわからない裏方の技術として、磁性体開発のブレークスルーもありました。
    それまでの磁性体は、酸化鉄をバインダーと呼ばれる支持体に混ぜてこれをテープに塗布していました。こうした方式に代えて磁性体をそのままテープに蒸着する技術が開発されました。これがメタル蒸着テープ(ME = Metal Evaporated)テープと呼ばれるものです。メタルテープには、磁気記録に関与しないバインダーが無いのでテープを薄くすることができ、記録密度も向上させることができました。
     こうした技術発展の中で、磁気テープは、
     
       2インチテープ幅(50.8mm)のオープンリール
        → 1インチ(25.4mm)
         → 3/4インチ(19.05mm)
         → 1/2インチ(12.7mm)
         → (8mm)
         → 1/4インチ(6.35mm)
     
    と小さくなっていきました。高い周波数帯域まで十分な性能が高められてくると、映像もデジタルで記録できる可能性が出てきました。
    8mmデジタルビデオカメラは、メタルテープのコンパクトさと記録密度の高さによって実現できたと言えます。
     DV規格は、先にも述べたNTSCアナログ信号をデジタルに直した規格で、アマチュア向けのビデオ信号に広く利用されるようになったものです。
     
     
     
     
     
    【フロッピーディスク(Floppy Disk = FD)】  (2009.10.18追記)(2010.12.22追記)
     
     フロッピーディスクは、個人目的を含めて2005年頃までのパーソナルコンピュータの一般的な記録媒体であり、コンパクトさと安価であることから非常によく使われていました。
    しかし、2005年以降、このメディアが使われることはほとんどなくなりました。
    その証拠に、2000年以降発売されるパソコンにはフロッピー装置が装備されなくなりました。
    フロッピーディスクは、画像を扱うファイル用記録媒体としての利用価値はなく、もっぱらドキュメントファイルの保存に使われていました。
    このメディアは、記憶容量が少なくてデータアクセスの速度が遅いので、画像データを扱うには不向きだったのです。
    フロッピーディスクは、手軽に持ち運べて媒体も安価であったのに、2000年を境にして急速に市場から姿を消していった理由として以下のものが考えられます。
     
      ・ パソコンの扱うデータ容量に対応できなくなった。
         (画像ファイルの台頭、OSの肥大化)
      ・ フロッピーディスクの読み書き速度が遅かった。 (約125kビット/s)
      ・ CD-R/RWが普及して、これがパソコンの標準装備となった。
      ・ フラッシュメモリの普及により、手軽に大容量のデータが
        バックアップできるようになった。
      ・ パソコン本体にUSBが標準装備され、
        手軽に周辺機器(CD、DVD、HDD、USBメモリ)と接続できるようになった。
     
     
    ▲ 開発
     フロッピーディスク(IBM社はディスケット = disketteと呼んでいた)は、薄い(約77um厚の)ポリエステルフィルム(米国Du Pont社の開発したマイラーフィルム = Mylar)の円板(floppy = フロッピー)に磁性体を塗布して保護ケースに入れたもので、これを読み書き装置に挿入してデータを読み込んだり、書き出しを行っていました。
    フロッピーディスクの読み書きを行う磁気ヘッド内蔵装置をフロッピーディスクドライブ(Floppy Disk Drive = FDD)と呼んでいました。
    1928年に開発され、1970年代まで主流であったIBM パンチカード。
     
    カードの大きさは、7 -3/8 x 3 -1/4インチ(187.3mmx82.55mm)。
    厚さは、0.007インチ(0.178mm) = 143枚で1インチ(25.4mm)。
    当時の大型計算機は、このカードを読みってバッチ(束)処理された。
     フロッピーデスクシステムが最初に開発されたのは、1967年のことです。
    パソコン(1981年)が登場するはるか以前のことです。
    この装置は、IBM社のエンジニア、アラン・F・シュガート(Alan Field Shugart: 1930.09 - 2006.12)がパンチカードの代用として開発しました。
     当時のフロッピーデスクの記録容量は、8インチ(φ203mm)の大きさがあるにもかかわらず、わずか256KBでした。
    IBM社は、当時、彼らが開発したメインフレームであるIBM370のシステムロード用として、取り扱いが簡便な外部記憶装置を求めていました。
    その代用として開発されたのが、8インチフロッピーディスクだったのです。
    フロッピーディスクは、従って、当然のことながら開発当初からデジタル記録媒体でした。
    8インチフロッピーディスクは、Memorex社から販売されました。
    Memorex社の設立は、1961年です。
    この会社は、VTRを開発したAMPEX社を退職した3名によって磁気テープ製造を目的として設立され、IBM社向けの磁気テープと磁気ディスクの製造で成長しました。
    同社は、2006年、Imation社に吸収されました。
     
    ■ IBMパンチカード(IBM 80 Column Punched Card Format)
     IBMが開発したフロッピーディスクは、当時記憶装置の主流であったパンチカードを多分に意識していました。要するに、パンチカードに置き換える目的でフロッピーディスクが開発されたのです。
     パンチカードによる情報処理は1800年代からあり、コンピュータができる以前からありました。パンチカードを最初に使ったのは、フランスの発明家ジョゼフ・マリー・ジャカール(Joseph Marie Jacquard)で、彼が発明した織物の文様を形作る装置(ジャカード織機)に採用されたと言われています。
    これをイギリスの数学者チャールズ・バベッジ(Charles Babbage、1791年 - 1871年)が、数学解析を行う機械に組み込むことを1800年代後半に考案し、コンピュータへの入出力装置として注目されました。
    コンピュータ自体は1940年後半になるまで実用的なものが現れませんでしたが、パンチカードは大量のデータ処理を必要とする分野に使われ、1890年の米国国勢調査で米国の発明家ハーマン・ホレリス(Herman Hollerith、1860年 - 1929年)が作った集計装置タビュレーティングマシン(Tabulating Machine)が使われました。
    米国IBM社(設立:1911年)は、ホレリスの興したTabulating Machine Companyを母体(他に2社、計3社の合併会社)として、タビュレーティング装置(パンチカードシステム)を製造販売会社として発展しました。パンチカードはIBMの心臓部だったのです。IBMが採用したパンチカードは、1928年に開発したIBM 80欄パンチカード(IBM 80 Column Punched Card Format)が有名で、以後このカードは、電子計算機の時代になっても1980年代半ばまでの約60年に渡って使い続けられました。
     
     
    IBM 80欄 パンチカードの特徴は、以下の通りです。
     
       ・ 穴の形状は長方形。
       ・ 1枚のカードに80欄。1欄は12穴。
       ・ カードのサイズは、7-3/8インチ x 3-1/4インチ(187.325mm x 82.55mm)。
         当時の1ドル紙幣の大きさ。(現在の1ドル紙幣はこれより縦横20%小さくなっている。)
       ・ カードの厚さは、0.007インチ(0.178mm)。1インチの厚さで143枚のカード。
       ・ カードは、取り扱いが楽なように表面をスムーズ処理し、かつ丈夫さも確保。
       ・ 高速処理をするため、1964年からカードの隅を丸くした。
       ・ カードには専用の収納箱があり、2000枚のカードを収納。
       ・ 1欄12穴の情報は、数字は12穴の中の上から3番目〜12番目を0から9にあて、
         英文字は、一番上から三つ分(Y、X、0)のゾーンパンチエリアと組み合わせた。
         (上図参照)
       ・ 12ヶの穴あけは、電子計算機に使用される際にEBCDIC = Extended Binary Coded Decimal Interchange Code
         に準拠して穴位置が決められた。
     
    上の図からもわかるように、パンチカードに入力する文字とパンチ穴のコーディングは簡潔で、現在我々が認識する二進法を取っていません。人間がパンチ穴の開け方ら判断しやすい方法となっています。
    パンチカードは、コンピュータができる以前からあったので、人間が認識しずらい二進法そのものの穴あけは採用しなかったものと思われます。上の図では数字とアルファベット大文字、特殊文字を含めた213文字が示されています。実際は、EBCDIC(拡張二進化十進法)に準拠するときにさらに文字が追加されて、最終的に256文字となりました。
    パンチカード自体は12穴であるので、これを二進法にあてたビットに直すと、212 種類(4,096種類)の記号をあてることができます。しかし、パンチカードは歴史的な経緯から人が認識しにくい2進法コーディングにすることはせず、このような方法を取ったと考えます。
    パンチカードは、手頃なデジタル記録媒体であり、データの追加や消去、並び替えが簡単にできました。 私の大学時代(1970年代後半)のことを思い出すと、当時、コンピュータは大学内に数台しかなく、別棟で空調設備の整った建物(大型電子計算機室)を建てて、そこに大型コンピュータを設置して共同使用する運用方法を取っていました。
    大型コンピュータのプログラムの保存は、パンチカードでした。1970年代の安価なデジタル記録媒体と言えば、パンチカードか紙テープだったのです。使用者はパンチカードの束を携えて計算機室に入り、カードリーダでパンチカードを読み取らせて、一日程度開けて計算結果を取りに行っていました。パンチカードは1980年頃まで使われていました。
    フロッピーディスクの登場によって、簡便で記憶容量の大きいデジタル記録媒体の時代になりました。フロッピーディスクが一般的に使われるようになったのは1980年代からと記憶しています。
     
     
    ■ トラックとセクタ(Track, Sector)
     フロッピーディスクに採用された記録媒体は、レコード盤のようにシリーズに記録する方式ではなく、細切れに間仕切りして、ランダムアクセスを可能としました。
    細切れの最小単位は、当時よく使われていたパンチカード(右上写真)の記憶容量から割り出されました。
    IBMが当時採用していたパンチカードは、12列(12ビット)x80欄 = 960bit(120バイト)の容量を持っていたので、8インチフロッピーディスクでは1セクタ(部屋割り)をビットの切りの良い128バイト(27)としました。(1セクタは、その後 512バイト = 29バイト が標準となりました。ディスクの大容量化とともにセクタは大きくなり、2011年にはフラッシュメモリの1セクタが4096バイト = 212バイトとなりました。)
    セクタ分割によるディスク内のデータ保存は、全周を26分割に分けさらにデスクを放射状に横切るトラック数(77トラック)で分割しました。
    こうすることにより、8インチフロッピーディスクは、77 x 26 = 2002セクタの部屋割りができました。(右下図参照)
     1セクタは、カードパンチャ1枚分の記録容量なので、初期のフロッピーディスク(256KB)は、2002枚のパンチカードのデータを保存できたことになります。
     当時、パンチカードは2,000枚を収納するパンチカードボックスに入れて保管されていたので、パンチカードボックス1箱分が8インチのフロッピー1枚にそのまま入れ替わることになりました。
     フロッピーディスクは、ディスクの回転数を一定にしてデータを読み書きする方式(CAV = Constant Angular Velocity方式)なので、フロッピーの内側と外側では線速度が異なり、内側のセクタが外側のセクタに比べて記録品質が劣るという問題がありました。
    従って、フロッピーのデータ容量は、内側のセクタのデータ容量を標準にして決められました。
     
    ▲ パソコンに搭載 - CP/M
     フロッピーディスク装置は、パソコン目的用としてではなく大型コンピュータ用として開発されたことは今述べたとおりです。
    IBM-PCが発売された1981年より7年も前の1974年に、マイクロコンピュータと8インチフロッピーデスクドライブをつなげた人物がいます。
    それがゲーリー・キルドール(Gary Arlen Kildall:1942.5.19〜1994.7.11)です。
    彼は、インテル社が開発した8ビットのマイクロコンピュータ(i8080)を使って、データをマイコンにアップロードさせたりダウンロードさせたりする管理プログラム(OS = Operating System)を作りました。
    これが、パーソナルコンピュータ用OSの元祖とされるCP/M( Control Program for Microcomputers、マイクロコンピュータのための制御プログラム)でした。
    CP/Mは、マイクロソフト社で発売されたMS-DOS(MicroSoft Disk Operating System)の原型をなすものでした。
     CP/Mには、マイクロコンピュータにデータを入出力させるBIOS(Basic Input/Output System)と呼ばれる心臓部があり、この心臓部の大きな役割が8インチフロッピーディスク管理だったのです。
    当時、フロッピー装置の価格は1台当たり500ドル(約15万円)もしたので、彼らの手の出る代物ではありませんでした。
    そこで、彼はフロッピーディスクドライブのメーカ、シュガート・アソシエーツ社(Shugart Associates、IBM社の元Managerシュガートが1972年に設立した会社)を説得して、一万時間の耐久テストが終わった使い古しのドライブをタダで手に入れ、これを管理する「CP/M」というオペレーティングシステムを開発したのです。
     このエピソードから何がわかるかというと、当時、開発者のゲーリー・キルドールにとって500ドルがとても高価な投資であったことから、CP/Mは個人ベースで開発されたと解釈できます。パソコン(マイコンキット)は、1970年代後半にあっては個人の趣味で(もしくは仲間内で自分のコンピュータ技術を自慢するために)作られていたのです。
    電卓の心臓部として日本のビジコン社の嶋正利が4ビットマイコンをインテルに作らせた1971年当時、マイコンは性能的に中途半端であり、開発したインテルでさえも応用を見いだせずにいました。せいぜい電子工学が好きな若者のオモチャ程度だったのです。
    インテルは、8ビットマイコン(i8080)をまともに動かすための環境ソフトを開発するために、当時、西海岸の海軍大学大学院でコンピュータサイエンスの教授をしていたゲーリー・キルドールを技術顧問(パートタイム)として雇いました。彼は、生来呑気だったようで(それでいて天才的なプログラマーだった)、インテルの事務所に車で出向くのがイヤで自宅で請け負った仕事をしようと考えました。
    そこで、自宅で8ビットマイクロプロセッサi8080が動くソフトを書き上げるために中古のフロッピーディスクをシュガート社から譲り受け、BIOSの原型と最初のパソコン用OSであるCP/Mを作り上げました。
    このソフトをインテルに持ち込んだのですが、インテルはまったく関心を示しませんでした。
    それで、自分で会社(デジタルリサーチ社、Digital Research, Inc.)を興し、1976年にCP/M(インテルi8080用OS)を販売するようになります。
    これが、マイクロソフト社のMS-DOSの母体です。
    マイクロソフト社がIBM社に売ったMS-DOSは、CP/Mと中身(コーディング)がほとんど同じものだったと言われています。
    ただ、MS-DOSはインテルの16ビットCPU i8086に合わせてコーディングされていました。
    以後、IBM-PCの爆発的ヒットは周知の通りで、パソコンにフロッピー装備は当たり前のことなりました。
     
     8インチサイズのフロッピーデスクは、1976年に5.25インチ(5 - 1/4インチ)サイズの小さなものとなり大きな普及を見ます。
    日本で一斉を風靡した日本電気の16ビットパソコンPC-9801F(1983年発売)には、2基の5.25インチ2DDのフロッピーディスクドライブがついていて、一方にはMS-DOSのシステムフロッピーが挿入され、もう一方にはデータ保存用のフロッピーが挿入できるようになっていました。
    当時HDD(ハードディスクドライブ)はとても高価だったので、コンピュータにはシステムを保存しておく記録媒体を持っていませんでした。
    システムをフロッピーから立ち上げていたのです。当時はその程度の容量でシステムができていたのです。
    さらに、1982年には、日本のソニーがハードカバーで覆った3.5インチのフロッピーデスク(280kB)を開発します。
    その後、いろいろなメーカが同種の記録媒体を開発していきますが、世界的に見て、ソニーの開発した3.5インチのフロッピーデスク(下右写真)が一番の成功を収めたように思います。
     ソニーのハードカバー3.5インチフロッピーが成功した主要因は、
     
    ・ 1984年のアップル社マッキントッシュに標準装備されたこと、
    ・ 1985年には、アタリやコモドールも続いてパーソナルコンピュータの標準として行ったこと、
    ・ ディスケットがプラスチックカバーで覆われ、ディスク面も自動開閉のスライドカバーで覆われて携行性が良かったこと、
    ・ データ容量も十分に大きかったこと、製品の信頼性が高かったこと、
     
    などが挙げられます。
     3.5インチFDDは進化をとげ、
       → 開発当初(1982年)は片面で280KBであったものが、
        → 両面倍密度(2D、360KB)
          → 両面倍密度倍トラック(2DD、720KB、1984年)
            → 両面高密度(2HD、1.44MB、1987年)
    と発展していきました。
     
    ▲ 画像保存用のフロッピーディスク
     フロッピーディスクが画像保存用に使われたことがあります。
    1981年、ソニーがCCDカメラ、マビカ(Mavica)を開発したときに、カメラの記憶媒体として2インチのフロッピーディスクを採用しました。
    しかし、保存形式はデジタルファイルではなくFM変調したアナログ記録であり、570x490画素相当の画像を50枚保存しました。
    再生はもちろんNTSCアナログ信号による読み出しで、既存のテレビモニタのビデオ端子にケーブルを接続して見るようになっていました。
     1981年当時、静止画像を記録するカメラと言えばフィルムカメラが圧倒的でした。
    その当時は、デジタルフォーマットによる画像は整備されていませんでした。
    計測用画像ファイルで有名になるTIFFができるのが1986年のことです。
    圧縮画像で有名なJPEGは、1992年の開発です。
    従って、この時代にあっては、画像の保存をアナログであれフロッピーに詰め込んだのは画期的な