↑にメニューバーが現れない場合、
クリックして下さい。
 
光と光の記録 --- 記録編 (2024.03.01更新) 
 
このコンテンツは、Dreamweaver CS6で制作しています。
     
 
 
  
 
 
 
 
目 次
 
■ 光の記録
 
■ 光を電子に換える材質
【光と電子の関係 - 最初の発見者 ヘルツ】
■ 光電子(Photoelectron)
▲ 光電面(光陰極、Photo Cathode)
■ シリコン(silicon) - 現代の光産業・電子産業の主
 
■ 光電効果(Photoelectric Effect)
▲ 光電子放出効果(Photoelectron Effect)
▲ 光導電効果(Photoconductive Effect)
▲ 光起電力効果(Photovoltaic Effect)
■ 光の記録原理 その1 --- 1次元記録
 
■ フォトチューブ(光電管 = Photoelectric Tube)
■ フォトマル(光電子増倍管 = Photo Multiplier)
▲ スーパーカミオカンデ
■ フォトダイオード(Photo Diode)

 
■ 光の記録原理 その2 --- 2次元記録 (ビデオ装置)
 
■ 撮像素子 --- CCD(Charge Coupled Device)素子
■ CCD素子の歴史
■ ソニー(SONY)のCCD開発話
■ CCD素子のキーワード
■ CCD撮像素子の種類
・フルフレームトランスファ型CCD
・フレームトランスファ型CCD
・インターライントランスファ型CCD
・フレームインターライントランスファ型CCD
- スミア(smear)
- ブルーミング(blooming)
- VOD(Vertical Overflow Drain)構造
 
■ CCD撮像素子の撮像、転送原理
・インターライントランスファー型CCDの
  シャッタ機能
・フレーム蓄積とフィールド蓄積
・プログレッシブスキャン型CCD
・画素ずらし
・3板CCD素子(3CCD)
・カラーフィルタ方式CCD素子
モアレと光学ローパスフィルタ
・水晶板ローパスフィルタ
・偽色(color artifact)
・三層カラーCMOS素子(Foveon X3 CMOS)
・QE(Quantum Efficiency、量子効率)
・ショットノイズ(shot noise)、
  フォトンノイズ(photon noise)
・光子の読み出しノイズ
・ビンニング(Binning)
■ 計測CCDカメラの先駆 - VIDEK社
■ 高解像力CCDカメラ(Megaplus)
■ 新型高解像力CCDカメラ Megaplus ES11000
■ 高速度カメラ用CCD素子(Kodak 16ch 読み出し素子)
■ 高速度カメラ用CCD素子(Kodak 16ch 読み出し素子)
■ 計測用CCD素子(Kodak KAF素子)
■ 高感度CCD素子 - EMCCD
 
■ 撮像素子 --- CMOS(Complementary Metal Oxide Semiconductor)素子
■ CMOS素子とCCD素子
■ 電子シャッタ内蔵CMOS撮像素子
■ ローリングシャッタとグローバルシャッタ
■ 背面照射型撮像素子
【高感度・高ダイナミックレンジの科学用CMOS - sCMOS】
■ 一時代を築いた撮像管
■ 撮像管の原理
■ 代表的な撮像管 - ビジコン(Vidicon)管
■ 撮像管の大きさ
■ 撮像管の種類
● ビジコン(Vidicon)
● プランビコン(Plumbicon)
● カルニコン(Chalnicon)
● サチコン(Saticon)
● SEC(Secondary Electron Conduction Tube)
● ハーピコン(HARPICON)(HARP撮像素子)
 
■ 電子管によるその他の撮像素子
● イメージコンバータ管
  (Image Converter Tube、転像管)
● X線イメージャー(X-ray Imager)
● イメージインテンシファイア(Image Intensifier)
● 電子顕微鏡(Electron MicroScope)
● フライング・スポット・スキャナー
  (Flying Spot Scanner、FSS)

■ 画像信号を記録する
テレシネ装置(Telecine)
 
■ アナログビデオ信号
  - NTSC(National Television Standards Committee)
アナログ信号の仕組み
・インターレース(interlace、飛び越し走査)
・NTSCの画面
・NTSC規格の仲間 - PALとSECAM
・29.97フレーム/秒の怪
・アスペクト比4:3
・NTSC規格のカラー情報
・NTSC規格の水平解像力
・S-VHSビデオの解像力
・ビデオ信号のダイナミックレンジ
・デジタルビデオ(DV)信号
・ハイビジョンデジタルビデオ(HDV)
・ハイスピードビデオの記録周波数
 
■ デジタル映像信号 (Digital Video Signal)
■ 最初のデジタル画像
VGA規格(Video Graphics Array)
■ デジタル放送(Digital Broadcasting)
  デジタルVTR D1〜D6
■ 4:2:2 コンポーネントデジタル信
■ ハイビジョン放送(アナログ放送とデジタル放送)
■ セグメント放送
■ 計測映像分野でのハイビジョンテレビの役割
■ コンピュータによるデジタル画像
■ バス規格
■ 高速通信規格
■ 画像取り込みの基本
■ コンピュータの仕組み
■ 画像の転送
・NTSCビデオ信号の送信について
■ コネクタとケーブル
■ RCAコネクタ/ケーブル
■ BNCコネクタ/ケーブル、
  映像出力インピーダンス(75Ω)ケーブル
■ HD-SDIケーブル
■ 不平衡ケーブル
▲ 同軸ケーブル
・同軸ケーブルの歴史
・同軸ケーブルの原理
・インピーダンス
▲平衡ケーブル
■ フィーダー線
■ ツイストペア線
■ 光ケーブル
■ファイバーレーザ
 
■ データインタフェース
・RS232C
・セントロニクス(Centronics)
・GP-IB(General Purpose Interface Bus)
・DMA(Direct Memory Access)転送
・VME(Versa Module Eurocard)バス転送
・SCSI(Small Computer System Interface)転送
・IDE(Integrated Drive Electronics)転送/ATA規格
・SATA及びeSATA
・イーサネット = Ethernet
・CoaXPress
・FireWire = IEEE1394、i.Link
・USB(Universal Serial Bus)
・D端子
・HDMI(High-Definition Multimedia Interface)
■ TMDS
■ DVI
■ DisplayPort
・HD-SDI(High Definition - Serial Digital Interface)
・LVDS(Low Voltage Differentila Signaling)
・カメラリンク(CameraLink)
・PoCL(Power over CameraLink)
・Light Peak, Thunderbolt(ライトピーク、サンダーボルト)

 

■ 画像の保存(静止画像)

■ アナログ電子記録(動画像)
- NTSC
- ハイビジョン ■ デジタル記録(静止画)
  ・TIFF(Tagged Image File Format)
  ・BMP-DIB
  (Bit Map File / Device Independent Bitmap)
  ・PICT(QuickD Picture Format)
  ・Bayer
  ・GIF(Graphics Interchange Format)
  ・JPEG(Joint Photographic Experts Group)
  ・JFIF
  ▲ JPEG2000
  ・PNG(Portable Network Graphics)
  ・Exif(Exvhangeable Image File)
  ・DICOM(Digital Imaging and
    Communications in Medicine)
  ・EPS、ai(Encapsulated Post Script
  - ポストスクリプト
  ■ aiファイル
  ■ SVG
  ■ Flash
  ■ PSD(Photo Shop Document)
  - Photo CD
  - Flashpix
  ■ 圧縮ファイル
  ■ DNG
  ■ HEIF
 デジタル画像の保存(動画像)
・ AVI(Audio Video Interleaved Format)
・ WMV
・ QuickTime
・ Motion JPEG
・ MPEG
  - MPEG-1
  - MPEG-2
  - MPEG-3
  - MPEG-4
  - MPEG-7
  -MPEG4- AVC/H.264
 
・ DV-AVI
・ DV
■ DV - Motion JPEG保存
■ DVとMPEG-2
・ HDV
・ AVCHD
・ DVD-Video ・ デジタル放送規格
・ HEVC(High Efficiency Video Coding)
 
■ 画像(電子画像)の記録媒体
▲ フィルムの時代
▲ 磁性体による記録
▲ 光による記録
▲ 半導体による記録
 
・磁性体による記録
 
【磁気テープ】
■ 磁気テープの開発
■ ドイツのテープレコーダ開発
■ ACバイアス記録
■ 米国の躍進
▲ 米国AMPEX社
■ 回転ドラムヘッド
▲ ドルビー
▲ FM記録
▲ MT(Magnetic Tape)
■ LTO(Linear Tape-Open)
▲ ビデオテープレコーダ - VHS vs ベータ
▲ DV規格とメタルテープ
 
【フロッピーディスク(FDD = Floppy Disk Drive)】
■ IBMパンチカード
■ トラックとセクタ
【Jaz、Zip、Bernoulli】
【ハードディスクドライブ(HDD)】
▲ 磁気記録方式
▲ RAID
【磁気ディスクのファイルシステム(FAT、NTFS、HFS)】
 
光による記録
■ レーザの役割
■ 光ディスクの種類
 
【光磁気ディスク(Magneto - Optical Disk = MO)
■ VHD
■ MO(Magneto Optical Disc)
【CD(Compact Disc)】
■ CDの仕様
▼ オーディオCDの記録周波数: 44.1kHz
▼  EFM変調方式
▼ データ書き込み
▼ CDとMD
■ ビデオCD
【DVD(Digital Versatile Disc)】
■ CDとDVDの違い
【Blu-ray Disc】
■ HD DVD
■ ハードコーティング技術を確立したTDK - DURABIS
■ Disc - CD/DVD/Blu-rayのまとめ
▲ 3種類のレーザ光源
▲大口径レンズ(高NAレンズ)
 
半導体による記録
【フラッシュメモリ(Flash Memory)】
▲ 半導体メモリの系譜
■ 半導体素子を使ったメモリ
■ コンピュータに多用されたメモリ
■ 磁気コアメモリ
▲ RAMとROM
■ RAM - DRAMとSRAM
■ ROMの仲間 - フラッシュメモリ
■ NAND型フラッシュメモリ、NOR型フラッシュメモリ
▲ MCP(Multi-chip Package)
▲ NAND型フラッシュメモリの多値化技術(MLC)
▲ フラッシュSSD
■ SSDと各種メモリの読み出し/書き込み速度の比較
■ SDメモリカード
■ コンパクトフラッシュ

 

 

 


 
■ 光の記録原理 その3     --- 2次元記録 (銀塩フィルム)
 
■ 1840年代から180年続いた銀塩感光材
■ テレビの話
■ テレビ映像とフィルム映像の世界
【米国における16mmフィルム高速度カメラのこだわり】
■ フィルムは銀を使っている
【水素増感法】
■ カラーフィルム
【3原色感度層】
■ フィルム乳剤の歴史
【銀】
【カメラ・オブスキュラ】
【ニエプスによるヘリオグラフィ】
【ダゲレオタイプ写真】
【カロタイプ写真】
【コロジオン湿板写真】
【ハロゲン化銀ゼラチン乳剤】
 ● ゼラチン
 ● ハロゲン化銀
 ● リバーサルフィルム
■ フィルムのタイプ
▲ 危険なセルロイド
▲ 最初のフィルム
▲ フィルムベースの変遷
【60mmロールフィルム(ブローニーフィルム)】
●フィルムのカーリング(Curling)
【35mmロールフィルム】
●パーフォレーション
●35mmフィルムのカーリング
■ 35mmライカサイズカメラ
【小型フィルムに対応したカートリッジフィルム】
■ インスタント写真
 
 
 
 
【映画用フィルム】
● 35mmフィルム
■ メートルフィルムとインチフィルム
■ 35mmフィルムを使ったイメージサイズ
■ フィルムの扱い
■ パーフォレーション(perforation、穿孔)の規格化
■ フィルム容量
■ 映画カメラ
● リュミエール兄姉
● パテ兄姉
● Bell & Howell 2709
■ Bell & Howell社
■ ハリウッド
● Michell
■ Mitchell Camera Corporation
■ Mitchell high speed movement
■ Mitchell社のその後
● Panavision
● Arriflex(アリフレックス)
● 16mmフィルム
● 8mmフィルム
● 70mm/65mmフィルム
■ IMAX
● IMAX社
【大阪万博 - 富士グループパビリオン興業顛末】
-  IMAXカメラ
● IMAX映写方式
■ 小型簡易白黒現像機
 
【フィルムの特性】
■ フィルムの解像力
■総合解像力
■ 光の記録原理 その4
  --- 光増幅光学装置 (イメージインテンシファイア)
▲ 光電面
▲ 印加電圧
▲ MCP(Micro Channle Plate)
▲ 蛍光面変換効率
● 第一世代イメージインテンシファイア
● 第二世代イメージインテンシファイア
● 第三世代イメージインテンシファイア
● 第四世代イメージインテンシファイア

   
■ 光の記録

-

光の記録体系表(希望する項目にカーソルを当てるとリンク先にジャンプします)

     
 
■ 光を電子に換える材質 (2006.11.04)(2007.11.18)(2020.05.19追記)
 
光と電子との関わりがわかるようになったのは、20世紀の初めでした。
今でも多くの人は、光と電子の間には直積的な関係はなく、全く別のものというイメージを強く持っています。
電気は恐いけど、光に関しては寛容です。 そうした性質の違う両者は、実はかなり深い関係があることがわかって来ました。
性質の全く異なる両者は、実は仲が良いのです。
光と電気、いや電子は、実は密接な関係があって、原子レベルでは電子と光は絶えずエネルギーの授受を行っています。電子が放出するエネルギーが、光を含めた電磁波であり、電磁波からのエネルギーを受けて電子は運動します。
熱も赤外域の電磁波です。
物質は、熱によって分子レベルで運動が活発になり、固体から液体、気体に変わります。
分子が活発に運動する中で、自らも熱を発します。
金属などは、固体から液体に変わると大量の熱と一緒に光も放出します。
これらはすべて、分子や原子の運動に伴って電子が放出する電磁波なのです。
結論を述べると、光(電磁波)の存在は電子の助けなしにはあり得ないのです。
 
 
【光と電子の関係 - 最初の発見者 ヘルツ】
 
光と電気、いや、電子は双方密接な関係があり、原子レベルでは電子と光は互いに絶えずエネルギーを受け取り合っています。
1887年、ドイツのヘルツ(Heinrich Rudolf Hertz: 1857 - 1894)は、イギリス人(スコットランド人)のマクスウェルによって数式で導きだされた電磁波理論の追試を行っているとき、放電電極に「紫外線」を当てると放電が起きやすくなることを発見しました。
 
ヘルツは、電磁波の実験になぜ光(紫外線)を使ったのでしょう。
彼は、追試実験で放電ギャップを使って放電を起こし(下図参照)、それを15メートル離れた位置にコイルで作った受信器を置いて放電観察を行っていました。(放電をおこして受信部で放電を受信すると、受信部のギャップ部間で放電がおきるので、これを確認していた)。
そのときに、たまたま、その発見をしたのです。
彼は、受信部の放電を肉眼で確認していたので、弱い光だと受信したかどうかわからないために、強い受信信号が欲しくていろいろな工夫を施し、その一環として光の照射(特に紫外線)を行ったというわけです。
最初、彼は受信部の放電を見やすくするために、受信部を暗箱で覆ってわずかな発光をする放電の観察を行いました。
そうしたところ、受信部の放電発光は見やすくなるどころか、とたんに何も見えなくなってしまいました。
そこで、暗箱のパネルを一つづつ外して行って、見やすい最適な配置を見つけて行きました。
そして、観測窓を送信側に設けると、他に配置したときよりも受信部での放電がおきやすくなることがわかりました。
また、観測窓に通常のガラス材を用いると、放電がにわかに鈍るのに対して、石英窓にするとかなりはっきりと放電が認められるようになり、距離を15mに離しても放電が認められたのです。
 
彼は、このようにして、放電発光に関して何らかの光が関与していると考え、プリズムを使って受信部に特定波長の光を与えていったところ、紫外線が放電を促す強い効果があることをつき止めたのです。

ヘルツ自身は、空中を伝わる電気現象の解明に集中していたため、彼が発見した光と電子による現象を深く掘り下げることはしませんでした。
それに、ヘルツはこの現象を発見した7年後、36才の若さで敗血病のため他界してしまいます。
当時、「電子」という概念はありませんでした。
 
ヘルツの発見の翌年の1888年、同国の物理学者ハルヴァックス(Wilhelm Ludwig Franz Hallwachs:1859 - 1922、ヘルツの門下生)は、光と電気に関する研究を別の実験で検証し、照射する光は短い波長であればあるほどこの傾向が強いことを再度確認しました(下左図参照)。
ハルヴァックスは、亜鉛板に紫外光を照射させ、この板を負に帯電させた検電器に接触させたところ、検電器内の電荷が急速に無くなることを確認しました。
また、亜鉛に紫外線を照射させていない時は、検電器の挙動は緩慢であり、逆に検電器を正に帯電させておくと開いた金箔が閉じることはありませんでした。

  

さらに、20年後の1902年、同国のフィリップ・レーナルト(Philipp Eduard Anton von Lenard:1862 - 1947:ヘルツの弟子、1905年ノーベル物理学賞受賞)によって、陰極線(=電子線)と光に関するさらなる興味深い研究成果が得られました(上右図参照)。
レーナルトは特殊な電子管をあつらえて、陰極に強力な炭素アークランプを照射し、それによって流れる電気の度合いを調べたのです。
また、炭素アークランプにプリズムを装着して任意の光を取り出すようにし、光と電気の流れる関係を調べました。 その結果、興味ある両者の関係を導きだすことができました。
その関係とは、以下に述べるものです。  
 
・ 光によって電気が流れるためには、最小の印加電圧(バッテリの電圧)が必要であった。
  この電圧以下では、どんなに強い光を与えても電気は流れない。
・ 電気が流れる条件の光では、照射する光量を2倍にすると流れる電気は2倍になった。
・ すべての光によって電気は流れるわけではなく、波長が短い光ほど容易に電気を流すことができた。
 赤色の光は、どんなにたくさんの光量を与えても電気を流すことができなかった。  
 
この現象は、当時の物理学では解き明かすことができない大きな問題でしたが、1905年にドイツの物理学者アインシュタイン(Einstein、1921年ノーベル物理学賞受賞)が両者(光と電子)の関係を説明し、光が粒子(光子 = )からなるというドイツの物理学者プランク(Planck)の光量子仮説を裏付ける結果を導きだしました。
 
これら光量子説の構築において、レントゲン(Wilhelm Konrad Roentgen、1845-1923)が1895年に発見したX線は、彼らに多大なるヒントを与えました。
 
光の振る舞いをし、かつ、電子に近い性質を持つ電磁波(X線)は、光と電子を結びつける量子物理学の道を開いたと言っても過言ではありません。
 
今でこそ、
「光は電磁波であり、電波のマイクロ波、赤外線、紫外線、X線と連綿と続く一連の波長の範囲の一部である」  
 
と、極めて理解の良い説明が与えられていますが、当時はその概念はなく、「光は電磁波である」と唱えたマクスウェル理論の追試を行っている途上にありました。
その途上に電子線が現れ、放射線が現れたのです。
これら諸物性をどう説明するか。それが当時の大きな問題だったのです。
 
レントゲンがX線を発見した当時、「電子」という明確な概念はありませんでした。
レントゲンが高電圧発生装置を使って強い電子線を作り、不思議な放射線(X線)を発見したにも関わらず、電子線が電子からできていることを理解していなかったのです。
電子は、X線の発見の2年後の1897年に、英国人物理学者J・Jトムソン(Sir Joseph John Thomson:1856 - 1940:1906年ノーベル物理学賞受賞)によって解明されます。
■ 光電子(Photoelectron)
光の働きによって個体から放出される電子や、個体内部で励起したり移動する電子を光電子と呼びます。
光子(フォトン = photon)とは違います。光子は光をエネルギーの粒(粒子)としてとらえるときの呼び名で、1フォトンは、hν(hは、プランク定数、νは、光の周波数)で表されます。
光エネルギーによって電子が励起したり放出する現象を光電効果と呼んでいますが、最初に発見された光電効果は光を金属に当てると金属表面にある電子が遊離する現象でした。
遊離した電子は、電場があれば引き出されて正極に向かいます。
この関係を端的に表したものが、以下に示す数式です。
 
Ep = 1240/λ [eV]  ・・・(Rec -1)
 
  Ep: 光子エネルギー(eV)
      eVは、エレクトロンボルトと読み、電子を真空中で1Vの電位差で加速したときの電子が
      得るエネルギー量を示す。
      1 eV = 1.60218 x 10 -19 (J)
  1240: hc( = プランク定数と光速の積)を1eVで割った定数。
  λ: 光の波長(nm)
  
上の関係は、電子と光を論ずる時に重要な関係式です。
ある波長λ(nm)の光は、Epという電子換算エネルギー(eV、エレクトロンボルト)を持っていて、この電位差がないと光は放出されないことを示しています。
発光ダイオードを作るときにもこの関係式は重要で、半導体素子のエネルギーギャップをこの理論エネルギー以上にしないと発光しないことを示しています。
例えば、赤色(650nm)LEDであれば1.9V以上が必要であり、青色(420nm)LEDであれば2.9V以上の電位差が必要となります。
短い波長ほどエネルギーが高いことがわかります。
   
 
▲ 光電面(光陰極、Photo Cathode)
光電効果は、高い量子エネルギーの光が金属に当たると電子を放出する働きを言います。
この作用を効率よく作用させる部位を光電面と言い、光 → 電気に変換させる重要なものとなります。
光電面には、従来、以下の金属が使われて来ました。
銀(Ag)、セレン(Se)、セシウム(Cs)、カリウム(K)、ナトリウム(Na)、
テルル(Te)、ガリウム(Ga)、ヒ素(As)、アンチモン(Sb)などの金属
硫化カドミウム(CdS)、一酸化鉛(PbO)、セレン化カドミウム(CdCe)、
三硫化アンチモン(Sb2S3)、ガリウムヒ素(GaAs)などの金属化合部。
これらの材料は、光に対して反応が良いものです。
光電面材料は、量子エネルギーの低い赤色部(赤外部)に反応して電子を放出する素材が求められ、その開発が続けられてきました。
本来、物質はすべて光に反応します。しかし、電子として取り出せる材料には限りがあります。
光電効果に対して効率よい物質を求めてきたのが光電面開発の歴史です。
光電装置の最初の装置は、セレンを使った光電管でした。
最近では、シリコンが従来の高価な金属に変わって使われだしています。
フォトダイオードは、ほとんどの場合シリコンで作られていますし、CCDカメラの撮像素子もシリコンでできています。
シリコンはなぜ光に反応するのでしょうか。
   
 
■ シリコン(silicon) - 現代の光産業・電子産業の主役
シリコンが光に対して敏感であることがわかったのは、80年ほど前(1940年)のことです。
金属が光に対して反応し電気を発生することは、シリコンを使った発見よりもさらに70年も前の1873年、イギリスの電信会社に勤めていた技術者スミス(Willoughby Smith: 1828 - 1891)によって発見されます。
そのときの金属がセレン(Se、Selenium)でした。
そもそもシリコンが電気を通すなどということなど、当時は知る術もありませんでした。
それが、トランジスタの発明を契機としてシリコンの素姓が徹底的に調べつくされ、現在では半導体電子機器部品の主役にまで上り詰めました。
 
▲ シリコン - 光反応の発見 シリコンが光に反応することを突き止めたのは、ベル電話機研究所のRussell Ohl(ラッセル・オール: 1898 - 1987)とJack Scaff(ジャック・スカッフ: 1908 〜 1980)でした。
1940年のことです。
彼らは、トランジスタを発明した同じベル電話機研究所のショックレー、ブラッテン、バーデンらよりも先に半導体の組成の研究をしていた研究者です。
1939年8月、第二次世界大戦の勃発直前、ベル電話機研究所のラッセル・オール(Russell S. Ohl)は、高純度のシリコンを作る研究を同じ研究所で金属研究者であったジャック・スカッフ(Jack Hall Scaff)に依頼しました。
彼は、融けたシリコンを使って部分的に高純度化する方法を採用します。
これは、ゾーン・リファイニング(帯溶融精製)として知られる技術で、戦後(1952年)、ベル電話機研究所のプファン(William Gardner Pfann: 1917.10〜 1982.10)によって確立された手法でした。
 
彼らの技術革新によって、シリコンが半導体の寵児となっていきました。
 
1940年のある日、ラッセル・オールは、数ある試験鉱石の中の一つである直径0.3mm、長さ25mmの細いシリコン棒におもしろい現象があることに気づきました。
シリコン棒に光が当たると電気が起きたのです。
彼がこれに気づいたのは、電気スタンドとシリコン棒の間に扇風機が回っていて、扇風機のゆっくりした動きに合わせて電気スタンドから照射される光がシリコン棒に遮られ、シリコン棒に接続した電流計が扇風機の動きに合わせて動き出したためでした。
シリコンに影ができると針は下がり、光が当たると針が大きく振れました。
これが、シリコンが光に反応して電気を起こす現象の最初の科学的発見でした。
しかしながら、この発見はシリコンの光の起電力という観点よりも(つまり、シリコンで発電できるという発見よりも)、半導体のP型とN型構造によって電気が流れるという発見の方が関心が大きく、これを契機にトランジスタの発明につながって行きました。
現代にあっては、半導体素子と言えばシリコンですが、トランジスタが発明された当初、半導体と言えばゲルマニウムが主流でした。
ラッセル・オールらが基礎研究をおこない、P型N型の半導体発見の口火を切ったシリコンであったのに、初期のトランジスタではゲルマニウムに主役の座を譲ってしまいました。
その理由は、当時、シリコンの精錬は難しく、ゲルマニウム結晶の方が得やすかったからです。
シリコンが脚光をあびるようになったのは、シリコン単結晶の製造法(ゾーン・リファイニング)が確立された背景要因がまず一つあげられます。
さらにもっと大きな要因は、シリコン素子による高集積化の確立からです。 シリコンは、簡単に酸化皮膜を作ることができ、酸化皮膜は電気を通しません。
酸化皮膜をミクロン単位の線巾で描くことができるようになり、シリコン基板上に精緻な回路を作ることができるようになりました。
小さな面積に、10個、100個、1,000個という具合にトランジスタを描き作ることができるようになったのです。
これが集積回路(Integrated Circuit、IC)の発展につながり、CPU(Central Processing Unit)の発明を促し、メモリの高集積化・大容量化を生み、CCD(Charge - Coupled Device)の発明につながっていきました。
ゲルマニウムではICが作れなかったのです。
 
▲ シリコン - 物性 シリコンそのものについては、「AnfoWorld 別館 奇天烈エレキテル シリコンって何物?」「同 半導体物質」を参照下さい。
シリコンの純粋な結晶は、ガラスやダイヤモンドと同じように絶縁体であり、電気を通すことがありません。
結晶構造がしっかりしているので電子を捕縛したり遊離することができないのです。
しかし結晶の中に異種の元素を入れてやると、その部分に原子結合の歪みが生じます。
原子の中のあるもの(ガリウム、ホウ素、インジウムなど)は、電子の手が3本しかないので、シリコン結晶中に入るとシリコンの4本の手の内3本までは握手(共有)ができるのに、残りの1本は空いてしまい電子を欲しがるものになります(ホール素子、P型半導体)。
また、別のあるもの(ヒ素、リン、アンチモンなど)は、電子の手が5本あってシリコンの4本の手とすべて握手しても1本余ってしまい、電子を持ったままぶらぶらさせることになります。
これは電子を与えやすいキャリア素子、つまりN型半導体となります。
そうしたシリコン原子と電気的な結合がわずかに違う原子をシリコン結晶中にわずかに打ち込んでやると、絶縁シリコン結晶から半導体結晶ができあがります。
これが、P型(電子を欲しがる)半導体と、N型(電子を持っている)半導体となります。
初期の半導体は、P型とN型の二種類の半導体を別々に作ってこれを接触させてダイオードやトランジスタを作っていました。
その後、一つの半導体結晶にP型とN型を作り込む接合型半導体ができました。
こうした半導体の製造は、とても高度な技術が要求されます。
基板となるシリコンは、99.999999999%(イレブン・ナイン)の精度で精錬し結晶を作らなくてはなりません。
その結晶板を使って、その中に不純物(価電子の違う金属)をドーピングし、N型もしくはP型半導体を作ります。
CCDのフォトダイオードもこのようにして作られます。
   
 
■ 光電効果(Photoelectric Effect) (2007.04.09)(2007.12.25追記)  
 
光と電子の相互関係を示す光電効果は、以下のような分類ができます。
 
▲ 光電子放出効果(Photoelectron Effect)
この性質は、歴史的に比較的早くから現象としてわかっていたもので、光子の概念を構築する発端となったものです。
この効果は、端的に言うと光に反応する物質に光を照射させると電子が遊離して表面から飛び出すというものです。
光電管(真空管)はこの原理を利用しています。
また、暗視カメラに使うイメージインテンシファイアや、高感度光検出素子であるフォトマルチプライア(photo multiplier)にもこの原理が使われています。
 
▲ 光導電効果(Photoconductive Effect)
この性質は、端的に言うと、光を光に反応する物質に照射すると抵抗値が変わって電気を通しやすくするというものです。
このような物質を光導電体といいます。
光導電体は半導体か絶縁体に限られ、金属単体ではこうした性質を持ちません。
代表的なものは可視光域では、シリコン、酸化鉛(PbO)、セレン化カドミウム(CdSe)、無晶形セレン(Se)、硫化カドミウム(CdS)などがあります。
光導電効果を持つ材料は、撮像管の光電面として使われました。
 
▲ 光起電力効果(Photovoltaic Effect)
この性質は、言ってみれば太陽電池のようなものです。光を受けると電気を発するというものです。
太陽電池といえばシリコンが有名です。
シリコンがこの性質を最も顕著に持っていると言って良いでしょう。
シリコンの他に光起電力を起こすものとして、ゲルマニウム(Ge)や硫化鉛(PbS)、セレン化鉛(PbSe)、インジウムヒ素(InAs)、インジウムアンチモン(InSb)、水銀カドミウムテルル(HgCdTe)、鉛錫テルル(PbSnTe)があります。
ただし、シリコン以外の物質は赤外域に感度を持っていて、可視光には感度がありません。

 
↑にメニューバーが現れない場合、
クリックして下さい。
        
 
■ 光の記録原理 その1 - - - 1次元記録 (1998.01)(2006.11.19追記)  
 
光を定量化する測定機器を考えて見ましょう。
光を検知する材料としては、セシウム、ナトリウム、カリウム、などのアルカリ金属があり、銀なども光に良く反応し、ガリウム、ヒ素、テルライド、シリコンなどの半導体も光に反応する性質を持ちます。
これらの素材は、アインシュタインの発見した光電効果で説明のつくものであり、量子エネルギーの小さな可視域(赤色)から赤外域まで感度を持たせた複合材料も開発されています。
ここでは主に可視光域について感度のある検出装置について特徴を述べます。
     
■ フォトチューブ(光電管 = Photoelectric Tube)
フォトチューブ(光電管)は、光電効果を利用した最もシンプルな光検出素子です。
銀、セシウム、ガリウム、ナトリウム、テルル、ヒ素などの光に反応して電子を放出しやすい材質(これを光電素子と呼ぶ)を真空状態のチューブ(真空管 = 電子管、Electron Tube)の中に入れて、これを陰極とします。
陽極(プラス極)と光電面である陰極(光陰極、photo cathode)の間に、ある電圧を加えると光が当たった強さに比例して光電子が放出され、プラス電極に向かって電流が流れるようになります。
この電流により、回路に組み込まれた抵抗間(出力抵抗RL)で電圧(E)が発生します。 (右図参照)
フォトチューブは、映画フィルム端に光学的に記録された音声信号を取り出す際のエキサイターランプとしての応用が代表的なものでした。
通常のフォトチューブは、印加電圧が 5 〜 30V程度で 1:100 程度のダイナミックレンジ(光の強さの度合)を持ちます。
印加電圧を高くすれば電子が加速されやすく応答性がよくなります。
2,000V程度まで印加できるフォトチューブがバイプラナ光電管(biplanar photo tube)として市販されています。
こうしたフォトチューブは、印加電圧が高いので応答がよく10ps程度の性能を持っています。
高速応答性のチューブは、パルスレーザの発光時間を測定するのに使われています。
光電管に使われている光電面の発達が撮像管(Imaging Tube)の発展を促しました。
撮像管とは、ビジコンとかサチコンなどと呼ばれているCCD固体撮像素子ができる前に活躍していたテレビ(ビデオ)カメラの眼のことです。
 
 
■ フォトマル(光電子増倍管 = Photo Multiplier) フォトマルチプライア(フォトマル = photo-electric multiplier、 光電子増倍管)は、光電面から放出された電子を二次電子放出する電極に衝突させ、これを何回も繰り返して、ねずみ算的に2次電子を放出させる真空管です。
2次電子放出電極は、通常10段程度あり−1,000〜−2,000Vに印加された光電面から100〜200Vの電圧間隔で電極が配置されています。
その結果、光電子増幅度は1,000,000以上に達し、非常に感度の良い光検出素子ができあがります。
2次電子を受ける陽極は、バイアス抵抗を挟んで接地(グランド)されているため、出力(E)はバイアス抵抗間に流れる光電子で起電される負極性の電圧となります。
バイアス抵抗を低くとっているため出力インピーダンスが低く、たくさんの電流を要求する測定器でも十分に流すことが可能です。
光の応答は、2次電子電極を用いている関係上フォトチューブより悪く1ナノ秒程度となります。
またフォトマルの受光部(光電面)の大きさによっても応答速度が変わり、大きなものでは4ナノ秒の応答となります。
フォトマルは、非常に感度が良いので、微弱な光の検出や、分光器の射出口に取り付けて分光分析などに使われています。
小柴昌俊東京大学名誉教授(ノーベル物理学賞受賞)の研究で有名になった神岡鉱山跡に設置されたカミオカンデのニュートリノ検出器にも大口径のフォトマルチプライアが使われています。
このフォトマルは、口径が500mm以上もあり、大きな光電面で非常に微弱な光を検出しています。
光増幅は1000万倍と言われています。
 
 
▲ スーパーカミオカンデ(Super-Kamiokande、Super-K)
フォトマルの使われている代表的な事例を紹介します。
小柴昌俊東京大学名誉教授(ノーベル物理学賞受賞)の研究で有名になったスーパーカミオカンデに使われているニュートリノ検出器には、大口径のフォトマルチプライアが使われています。
(モデルR3600。設計製造は、浜松ホトニクス株式会社)
このフォトマルは、口径が500mm以上あり、重量が約8kgもある大きなエチゼンクラゲのような形をしたガラス真空管でできています。
形状が大きいのは、大きな光電面で非常に微弱な光を検出するためです。
その光増幅率は、1000万倍と言われています。
1000万倍の光増幅を達成するために、フォトマルにかけられる電圧は最大2,500Vとなっています。
光電面は、350nm〜650nm(ピーク感度波長は420nm、量子効率20%)の感度を持っていて、チェレンコフ光の青白い微弱な光を検出するために青色域に感度を持たせています。
その材質は、バイアルカリ(Sb-K-Cs)であり、1700cm2(直径46cmの円状)の大きな光電面で受ける微弱光は、11段の増幅段(ダイノード)を経て2次電子を作り出し最大100uAの電流を取り出すことができます。
この素子の光の反応は、10nsで応答し、光がフォトマルに入って電気信号として取り出すまでの遅れは95nsです。
また、短いパルス光に関しては、5.5nsまでのパルス光を検出できます(Transit Time Spread [FWHM])。
スーパーカミオカンデは、岐阜県の神岡町(岐阜県飛騨市神岡町池の山)の鉱山跡地に1995年に建設されたニュートリノを検出する巨大水槽と計測装置からなる設備です。
初代の設備は、1983年に建設されたカミオカンデですが、スーパーカミオカンデの完成によってその役目を終えています。
 
スーパーカミオカンデは、地下1000mに直径39.3m、高さ41.4mの円筒型水槽が埋設されて、ここに50,000トンの純水が満たされています。
この水槽は、さらに内側と外側の2重構造となっていて、内側水槽(直径36.2m、高さ33.8m、容積32,000m3)はステンレス構造体で作られ、11,146本の20インチフォトマルが全水槽を覆うように配置されています(上面・下面各1,748個、側面7,650個)。
外側水槽には、8インチ口径1,885個のフォトマルが内側水槽との仕切壁側に外向きに取り付けられています。
これらのフォトマルは、宇宙から飛来するニュートリノが巨大水槽に入って減速する際に発光する青白い光(チェレンコフ光)を検出します。
チェレンコフ光が非常に微弱であるのと、巨大水槽内で発光する光の空間位置と時系列を把握するために、11,000本の巨大フォトマル(20インチ)を配置してチェレンコフ光の発生をマッピングしています。
8インチのフォトマルを外側に配置しているのは装置のバックグランド光を取り除くためです。
   
 
■ フォトダイオード(Photo Diode) 最近脚光を浴びてきている光反応素子として、シリコンフォトダイオードがあります。
これは、いままで述べてきた真空管(Electron Tube)と違い半導体構造であるため、以下の特徴をもっています。
 

フォトダイオード(参考)。 形状はいろいろなタイプがある。写真は左部の開口部の円形状がフォトダイオード部。右端子がBNCになっていて使いやすい。

1. 小型
2. 堅牢
3. 安価
4. 高電圧電源不要
5. 過大な光に対して強い  
 
反面、以下の欠点を持っています。  
 
a. 反応速度が遅い
b. 光増幅率が低い
c. ノイズが出やすい  
 
フォトダイオードは、安価で取り扱いが簡単なことから光検出素子としてあらゆる分野で使われだしてきています。
シリコンは、光に対して鋭敏で、光を電子に変換することができます。
シリコンフォトダイオードは半導体ですから、光(時には熱)に反応して起電した電荷があふれると順方向に流れるようになります。
しかし、ダイオード(半導体接合面)のしきい値を越える電荷( = 光)を蓄えない限り何の反応も起こさないので、極めてレスポンス( = 応答)の悪い素子になってしまいます。
そこでフォトダイオードに順方向とは逆の電圧をかけておくと、ダイオードの電気的しきい値が低くなり、ちょっとした電気変動( = 光変化)でも電流が流れるようになります。
バイアス電圧は5〜30V程度で、シリコンフォトダイオードの種類によって異なります。
点接触タイプのPINフォトダイオードやアバランシェタイプはバイアス電圧を高くセットします。
応答速度は、通常1マイクロ秒程度で、PINフォトタイプでサブマイクロ秒、アバランシェタイプでナノ秒です。
いずれにしても、ダイオードとグランド間に接続された抵抗値により光応答性能と電圧出力が決まり、抵抗が高いものほど出力電圧が高くなる反面、レスポンスが遅くなります。
ダイナミックレンジは、比較的広く 1:10,000 程度あります。
フォトダイオードは当初、カメラの露出を決める露出計や照度計等に用いられてきました。
半導体発光素子(発光ダイオード、LED)の発達と共に、発光ダイオードの光を検出して電気的なスイッチを行うフォトカプラー、フォトアイソレータという電子素子が開発され、電子機器に組み込まれて電気ノイズの遮断に威力を発揮しています。
また、光通信分野においてもレーザ光を受信して電気信号に変換する装置にフォトダイオードが使われています。
フォトダイオードの応用で最も興味深いのが、CCDカメラを代表とする撮像素子です。
CCD撮像素子は、実はフォトダイオードの集合体なのです。画素の中心部はフォトダイオードでできていて、レンズによって集光する光を電気信号に変換する働きを持っています。
 
CCDCMOSについてはのちほど詳しく述べます。
 
 
項目
フォトチューブ
フォトマル
フォトダイオード
光電素子
銀、セシウムなどアルカリ金属
50uA/lm
100uA/lm
シリコン
150uA/lm
使用電圧
100V〜300V
高い
1,000V〜2,000V
非常に高い
5V〜30VDC
低い
感度
中庸
最も高い
1,000,000倍程度
相対的に低い
応答速度
最も速い
ピコ秒
速い
ナノ秒
相対的に遅い
マイクロ秒
ノイズ
少ない
(真空管の利点)
中庸
(増幅ノイズの影響)
相対的に多い
(固体素子の宿命)
ダイナミックレンジ
1:100
1:1,000
1:100,000
(リニアリティがある)
その他特徴
・真空管 ・高い電圧は使用しない ・応答速度速い
・別途電源必要
・真空管 ・高い印加電圧使用 ・感度が非常に高い ・強い光や衝撃に弱い。
 - 取り扱いに注意が必要。
・半導体 ・低い電圧で使用 ・感度も応答速度も遅い
・使い勝手が良い
光電素子の性能表 (この性能表は、傾向を示すための表です)

 


   
 
 
■ 光の記録原理 その2 - - - 2次元記録(ビデオ装置)  (2008.01.02追記)
 
前項で述べたシリコンフォトダイオードをとんぼの複眼のようにカメラ結像面に配置し、カメラレンズによって結像された光学濃淡像をテレビ信号として取り出すものが固体撮像素子CCDカメラです。
テレビ技術は、比較的新しい技術ながら驚異的な速度で技術革新がなされて来ました。
最近のビデオカメラやテレビカメラというと、CCDカメラが代名詞のようになっていますが(2010年以降はCMOS)、CCDカメラができる前までは真空管を使ったカメラが主流でした。
画像を見る受像機も、真空管(ブラウン管、CRT = Cathode Ray Tube)が一般的でした。
フィルム(銀塩画像)による2次元画像については項を改めるとして、電気信号処理による2次元画像は、1875年に端を発し(米国George R. CareyによるTelectroscopeの発明に始まります)、1931年に電子撮像素子(米国Farnsworthによるイメージディセクタ管)が完成し、1941年代に米国でテレビ放送規格(NTSC)が決まって大きな礎ができました。
電子画像は、今となっては主流となっているものの、1830年終わりに発明された銀塩画像に比べてその足取りは遅く、1990年頃まではテレビ放送という形での発展に重点が置かれて写真のように個人が扱うまでには長い道のりがかかりました。
電子画像は、画質が悪いけれど即時性があるため、テレビ放送などの分野に特化していたのです。
電子カメラがフィルムカメラや映画カメラを凌ぐようになったのは2000年を越えてからでした。
1981年に試作品として出品されたソニーのマビカ(Mavica)の品質は、銀塩フィルムに比べてお粗末なものでした(570x490画素、2インチ2HDフロッピーディスクにFM変調アナログ録画、アナログビデオ再生)。
しかし、固体撮像素子の向上と記録媒体(CD、DVD、HDD、メモリスティック)の低価格化、再生装置(パーソナルコンピュータ)の高性能、低価格化によって、今は銀塩フィルムを凌駕するほどにデジタル画像は進歩しました。
電子画像は、電子技術の成熟発展を待たねばならなかったようです。
 

 

 
 
▲ 2000年までの動画映像(Legacy video output) (2006.11.05)
 
画像はとてもたくさんの情報を持っていて、これを記録したり転送したりするためにはこれらの大量データを高速で処理する機器が必要です。
デジタル処理は、データの細分化とそれにともなう高速処理の戦いでした。
デジタルは、アナログの持つ周波数以上にならないとそれを凌駕できないという宿命を持っています。
動画像は、1955年に出発したテレビの送受信の画質と再生速度(NTSCビデオ規格)が一つの指針となっていました。
デジタル画像は、テレビの画質と速度を凌駕しない限り普及できなかったのです。
静止画像においては、銀塩のフィルム画像が一つの指針でした。
キャビネサイズに引き延ばされたフィルム画像と、インクジェットプリンタでプリントされた写真を見比べて、遜色がなくなった時点でデジタル画像がアナログ画像に勝ったと言えました。
2006年11月時点では、デジタル動画もデジタル静止画もあまねくアナログ画像を凌駕しました。
2000x2000画素の静止画像や、1000x800画素で30コマ/秒の動画像はアナログ画像を凌ぐ画質を持っています。
   
 
▲ 映像は撮像面で一度にとらえるが、読み出しは1本の信号線から出力する(Serial video Signal)
 
テレビ放送や家庭用のビデオカメラに使われている一般のアナログ映像信号の読み出しは次のようになっています。
つまり、カメラレンズで結像された像は、カメラ内部の読み取り回路によって、左上から右下に順次なぞるような形で映像信号に置き変わります。
従って、映像信号は一本の連綿と続くアナログ信号となります。
実は、この連綿と続く1系統の信号であることが映像を電送する場合のキーポイントであり、放送電波として信号を送ることのできる原点だったのです。
一連の巻き取り糸のような映像電気信号は、映像の記録(VTRの発明)にも便利でした。
映像信号(NTSC規格のビデオ信号)は、0V〜1Vのアナログ信号であり、0V〜0.3Vは同期信号に割り当てられ、0.3V〜1.0Vを映像信号にあてています。
暗い被写体は低い電圧であり、明るい被写体は1Vに近くになります。
(ただし、最近の高画素デジタル素子や高速度撮像素子は1本の読み出し口から読み出すと速度が上がらないために、複数の読み出し口から情報を取り出しているものもあります。)
デジタル信号は、0V〜1.0Vのアナログ映像信号を8ビット濃度(256階調、カラーではRGB各8ビットで24ビット)に割り当てられました。
NTSCビデオ信号については、別の項でも詳しく触れます。        

     
 
▲ 撮像素子 - - -CCD(Charge Coupled Device)素子 (2004.10.24)(2007.12.23追記)  
 
■ CCDの仲間
 
CCD固体撮像素子は、光学像を電気出力に変換する撮像素子の中で最も一般的なものです。
映像の撮像素子は、CCDだけかと言うとそうでもなく、以下示す固体撮像素子が開発されました。
・ MOS(Metal Oxide Semiconductor)
    - 1966年〜。CCDの対抗馬的存在の固体撮像素子。
      消費電力が少ない。
・ BBD(Bucket Brigade Device)
    - 1969年〜。バケツリレー素子。
      松下が研究開発。
・ CID(Charge Injection Device)
    - 1970年〜。
      電荷注入素子。MOS型とCCD型の折衷素子。
      フィリップスが発表。 GE社が開発を継続していた。
・ CPD(Charge Priming Device)
    - 1978年〜。呼び水転送素子。
        MOS型を基本構造とし、一部をCCD型とした素子。
        松下、日立が研究していた。
・ CSD(Charge Sweep Device)
    - 1983年〜。電荷掃き寄せ素子。
       三菱電機が研究していた素子。
・ PCD(Plasma Coupled Device)
    - 1972年〜。プラズマ結合素子。
      NTTが研究開発をしていたX-Yアドレス方式の素子。
・ SIT(Static Induced Transistor)
    - 1977年〜。静電誘導トランジスタ。
      オリンパスが開発。
      発想は東北大学西澤潤一教授。高感度。
・ CMD(Charge Modulation Device)
    - 1990年〜。
      MOS型素子。オリンパスが開発研究。
・ ISIS(In-situ Storage Image Sensor)
    - 2001年〜。
      CCD型素子。素子上にメモリ機能を置き100万コマ/秒の撮影を達成。
      近畿大学江藤剛治教授開発。
 
 
こうした固体撮像素子を見ると、いろいろなメーカがお互いの特許をかいくぐりながらいろいろなアイデアを持ち寄って開発したことがうかがい知れます。
そもそもCCDに代表される固体撮像素子は、テレビカメラの世界では新しい撮像素子です。
固体撮像素子が全盛を極める2010年以前までは撮像管(電子管)が使われていました。
撮像管によるテレビカメラはとても高価であり、一般市民が簡単に使えるものではありませんでした。
撮像管は、放送局関係の人達だけが使っていたプロユース品だったのです。
 
■ 映像信号の記録とCCDの発展
私の記憶では、テレビカメラは1940年代に発明されて1950年代の放送局の設立と無線放送の発展の中で放送局専用として使われたものであり、一般家庭で使われる代物ではなかったはずです。
一般家庭では、テレビカメラをたとえ持ったとしてもこれを記録する録画機(ビデオレコーダ)がなかったのです。
録画装置がない限りテレビカメラがあっても何の役にも立ちません。
当時、アマチュアで動画の記録保存を行うには、機械が好きでお金に融通の聞く人たちが8ミリ映画フィルムを使った8ミリカメラを使っていました。
1970年代後半から発売された1/2インチビデオテープによるビデオテープレコーダによって、家庭にビデオカメラが浸透し始め、1980年代後半に発売された一体型ビデオカメラの登場によってホームビデオが市民権を得るようになりました。
ビデオカムコーダ普及にあたって、CCD固体撮像素子の果たした役割は大変重要なものでした。
CCD固体撮像素子は、真空管撮像素子に較べて小型、堅牢、メンテナンスフリーで、何よりも安価でした。
このカメラが出る前の1970年代は、放送局に加えて産業用用途にそして学術研究用にITV(Industrial TV)という分野が発展し、CCTV(Closed Circuit TV)の分野も立ち上がって、テレビ業界の大きな発展を見ます。
撮像管を使ったテレビカメラはその中で使われていたに過ぎませんでした。
家庭まで浸透するには値段が足かせとなっていました。
 
■ CCD以前の撮像素子
こうしたテレビの世界で使われていたカメラの撮像管として、目的に応じてさまざまなタイプのものが開発されました。
これらは、赤色領域の感度確保、高画質、高感度化が主な開発目的でした。
 
・ イメージディセクタ(Image Dissector) - 1931年、Farnsworthにより開発。
・ イメージオルシコン(Image Orthicon) - 1946年、米国RCA社が開発。
・ ビジコン(Vidicon) - 1950年。撮像管の代表的なもの。
・ プランビコン(Plumbicon) - 1963年。オランダ フィリップスが開発。残像が少ない。
・ サチコン(Saticon) - 1974年。NHKと日立が開発。
・ カルニコン(Chalnicon) - 1972年。東芝が開発。
・ ハーピコン(Harpicon) - 1985年。NHKと日立が開発。超高感度。
 
 
撮像管については別の項で詳しく触れています。 これら撮像素子の中で、固体撮像素子であるCCDだけが何故広くゆきわたり、撮像素子の代名詞になったのでしょう。
その理由は、CCD撮像素子が一にも二にも大衆マーケットである一体型8mmカムコーダを中心としたビデオカメラにあまねく採用されて、そこそこの画質と使い勝手の良さが認められ、大量供給による低価格化によって市場を席巻していったためです。
■ CCDの発展 CCD
カメラは、米国ベル電話機研が開発し、日本のSonyが1970年代後半に市販化しました。
ビデオカメラの眼として市販化するそもそもの発端は、日本の航空会社(ANA = 全日空)の要求からと言われています。
堅牢な固体撮像素子カメラを航空旅客機に搭載し、離着陸時の機外の様子を客室へモニタする乗客サービスをしたい、という航空会社の要求をソニーが受け入れ開発に本腰を入れて市販化されたということです。
当時は、画素数も少なくて画質が悪かったため、放送業界はもとより一般産業分野(当時、これを放送テレビと区別して ITV = Industrial Television と呼んでいました)でも受け入れ難かったのですが、振動、耐久性を重視する航空機搭載の強い要求が CCD 固体撮像素子を育て上げたと言えます。
いずれにせよ取り扱いが簡単なことや、過度の光が入射しても素子を傷めないことから、開発当時は、放送局業界より一般産業界で着実に顧客をつかみ、感度、解像度、価格などを向上させていきました。
そして現在では、放送局用カメラはもとより、ハイビジョンカメラや計測用カメラにあまねく利用されるようになりました。
CCDの成功は、以下の技術革新によったと言えましょう。
 
・ 取扱が簡単 - 低電圧で駆動、焼き付きなし(強い光が入射しても損傷しない)、振動や環境に強い。
・ 高画素化 - NTSC規格の解像力を凌ぐ高解像力。
・ 電子シャッタ内蔵 - 電子的に光量を制御可能。及び計測用として利用。
・ 高感度化(マイクロレンズ) - 照明装置を用いずに撮影可能。
・ モジュールによる素子のパッケージ販売 - CCDファミリーの増加。  
 
 
■ CCDのライバル
同時代、日立からもC-MOSタイプの撮像素子が開発され市販化されました。
しかし、1980年代はCCD陣営に追いついて拮抗するまでには至らず、1990年に入って製造中止を余儀なくされました。
しかし、その4、5年の後にMOS型撮像素子の低消費電力の利点が見直され、デジタルカメラや携帯電話の需要を見込んで1997年、東芝によってさらに進化させたMOS型撮像素子が開発されました。
現在では米国をはじめ、再び大きな市場に発展する勢いを示しています。
皮肉なことに、MOSタイプのカメラが再び脚光を浴びたのは、米国航空宇宙局(NASA)の宇宙開発での要求、すなわち、低消費電力でコンパクト、そして取り回しの良い小型撮像素子開発要求があったことです。
CCDはMOSに較べて桁が変わるくらいに多くの電力を消費しました。
熱が対流によって逃げない宇宙空間では熱発生が致命的な問題となるのです。
詳細は、CMOSカメラの項目を参照下さい)。
この要求が実を結んで、CMOS撮像素子が2000年代の主役に再度躍り出てくるというのも面白い巡り合わせです。
   
 
【CCD撮像素子の歴史】
CCD素子は、1970年に米国ATTベル研究所で、W.S.ボイル(Willard Boyle、1924.1〜)とG.E.スミス(George E. Smith:1930.5〜)によって発明されました。
両氏は、CCD開発の功績で2009年ノーベル物理学賞を受賞しました。
ボイル氏85才、スミス氏79才でした。
彼らは、1970年に『The Bell System Technical Journal』という機関誌にCCDの基本原理と8ビットのシフトレジスタの発表をしました。
論文名は、「Charge Coupled Semiconductor Device」でした。
当時、彼らはCCD素子をメモリの一環として開発したのであって、カメラの目として開発したわけではありませんでした。
CCDという名前は、電荷をパルスによって送る方式(Charged Couple)に由来しています。これは、1980年代、CCDカメラと熾烈な競争を展開したMOS素子の開発動機とは好対照です。
 
MOS固体撮像素子の開発は、1963年、HoneywellのS.R.モリソン(Morrison)による「Photosensitive Junction Device」というフォトスキャナの発表に端を発します。
CCDよりも7年も前のことです。
これが1967年に、Westinghouseのアンダース、Fairchildのヴェクラー(Gene Weckler)、RCAのワイマー(Paul K. Weimer:1914 〜2005.01)などによってMOS型素子として発表されます。
MOSは、フローティング状態のpn接合部に光の量に応じて蓄えられた電荷がスイッチング素子で吐き出されるという原理です。
MOS素子の構造は、CCD方式に比べるとシンプルで作りやすい反面、各セルに蓄えられた電荷を取り出すのにトランジスタのスイッチングを使って取り出すため、スイッチングノイズが多く、これが画像に悪影響を与えて(S/N比があまり良くなく)CCD転送方式に比べて大きなハンディキャップを背負っていました。
しかしCCDに比べてシンプルで高速サンプリングが可能だったので、1990年代の高速度カメラにはMOS素子を使ったものが多く市販化されました。
(Kodak EM1012、Kodak HS4540、フォトロンFastcam Ultima、ナックHSV-1000。)
 
両者の固体撮像素子の熾烈な競争の中、1990年代はCCDに軍配があがりました。
 
CCD固体撮像素子(画像としての素子開発)は、1971年、ベル研究所のM.F.トムセット(M. F. Tompsett)によるフレーム・トランスファー方式のエリアセンサーの構想発表からスタートします。
1972年にはベトラムが98画素、1973年にはシーガンが106 x128 = 13,568画素のCCD試作に成功します。
1974年には、RCAのR.L.ロジャースが、NTSCテレビ標準方式にのっとった320 x 512 = 16万画素以上のCCDを発表して画素を向上させていきました。
日本では、1972年に研究室レベルでソニーが8画素のCCDを作り電荷の転送を実証し、これをさらに8x8画素の64画素として「S」の字を撮像させたと言います。
ソニーは、当時まだまだ問題の多かった固体撮像素子の画質を見る見る向上させ、1990年にはプロユースの撮像管を使った放送用テレビカメラを彼らが開発したCCDカメラで置き換えてしまいました。
当時ソニーは、トランジスタで世界を唸らせる製品(小型トランジスタラジオ、小型テレビ受像機、テープレコーダ)を世に送り出していましたが、コンピュータメモリや集積回路では目立った実績を上げていませんでした。
CCDは、半導体製造技術でも特に高度な技術を要する素子です。
こうした難しい製品の開発を成功させ、2000年にあってはカメラの目と言えばCCDと言われるくらいにカメラの代名詞となりました。
現在は、ビデオカメラは言うに及ばず、デジタルカメラや放送局用のテレビカメラやハイビジョン用のカメラでさえCCDカメラに置き換わるようになりました。
(2010年以降はCMOS素子が主流となります。(2019.05.01記)
 
■ CCDの基本原理 - シフトレジスタ
CCDという名前は、今でこそ一般名詞(カメラの代名詞)として一般の人にも認知されるようになりましたが、名前の由来がどのようにしてできたのかよくわからない不思議な名前です。
「CCD」のそもそもの原理や構造を説明できる人は多くはないと思います。
最初に発表されたCCDの構造と原理をわかりやすく説明すると以下のような概念になります。

 

CCDは、基本的に電荷を蓄えるための複数のセルを持っていて、電子回路によるシフト機構によって(電圧をタイミング良く上げ下げして、電荷を右方向に転送する仕組みによって)、順序よく電荷を次のセルに受け渡します。
この方式がCCDの基本概念です。
この方式によって蓄えられた電荷を時系列の時間情報として取り出すことができます。
 
【コンピュータメモリ - CCD】
CCDが発想された1970年当時は、トランジスタとIC技術の進展でコンピュータ技術が発展している時代だったので、それに伴う周辺機器の開発(特にメモリ開発)が活発に行われていました。
CCDは、コンピュータメモリの一環として開発されました。
CCD開発には、磁気バブルメモリ(magnetic bubble memory)に代わるメモリ装置という伏線がありました。
磁気バブルは、1960年代にベル電話機研究所(Andrew Bobeck、1926.10.01〜)が開発した記憶装置で、1980年代までのコンピュータの大切なメモリ装置でした。
磁気バブルメモリは、CCD開発に多大な影響を与えます。
つまり、CCDは磁気バブルメモリの欠点を補うべく開発されたのです。
しかし、この両者は、1980年初頭に開発された小型HDD(磁気ディスク)の成功によりコンピュータメモリの世界から姿を消すことになりました。
1980年当時の磁気バブルメモリは、情報を読み出すのに1/1000秒のアクセス時間がかかり、保存する容量も1Mビットを作るのがやっとでした。
磁気バブルメモリは、1Mビット(125kバイト)のデータを読み出すのに、8ビットパラレルで2分もかかるのです。
1980年に登場した小型HDD(IBMが開発したST-506)は、5Mバイトの容量を持ち、250kバイト/秒でデータを転送できました。
これは、磁気バブルメモリの40倍の容量と250倍のスピードを持っていたことになります。
磁気バブルメモリは、当時、富士通が熱心であり、彼らのパソコンFM-7、FM-8に記録装置として内蔵されていたそうです。
CCDは、先に開発された磁気バブルメモリの性能を遙かに凌いでいましたが、どんどん進化していく小型HDDの性能を追い越すことができませんでした。
当時の技術では、100万セル(1Mビット)のCCD素子を作るのが精いっぱいで、HDDには太刀打ちできなかったのです。
コンピュータのメモリとしての命が絶たれた磁気バブルメモリとCCDでしたが、CCDは光信号を蓄積転送できるという特徴が活かされ、「カメラの眼」として新たな分野で発展成長を見ることになりました。        
 
ソニー(SONY)のCCD開発話
   - NHK『プロジェクトX』 2004.09.14放送より、一部、別文献を参考
                  (2004.09.19記)(2009.01.03追記)(2020.02.11追記)
大企業のプロジェクトと言うのは恵まれた環境の中で育てられて完成するものだと、私自身は思っていました。
日本のCCDカメラの開発もベル電話機研究所の発明を睨んで会社を上げての取り組みだと考えていたのです。
しかし、NHKのテレビ番組『プロジェクトX』(2000年3月〜2005年12月)を見て、CCDカメラ開発の発端は閑職とも言えるべき立場にいた若いエンジニア(越智成之氏、東京工業大学電気工学卒、1962年入社)が、会社の意向とは関係なく自発的に海外の文献を漁って、片手間に(しかし当人にとっては真剣に)手作りしたことに始まったことを知りました。
彼は中国生まれで、少年時代手作りの真空管ラジオに熱中し、アンテナも自作して電波の弱い放送を感度良く受信していたそうです。
根っからの電気少年でした。
 
希望に胸ふくらませて入社されたソニーでしたが、配属先はスピーカーの性能を検査する部署だったそうで、毎日オシロスコープとにらめっこして波形データを記録する日々だったそうです。
期待した仕事とは全く違った部署の配属となり、ジリジリとした焦りにも似た日々が続いた、と、越智氏は番組で述懐されていました。
1962年に入社されて、ベル電話機研究所の文献が出される1970年までの8年間、ある意味の下積みをされていたのでしょうか。
彼は、1961年に横浜保土ヶ谷区に建設された「ソニー研究所(現ソニー中央研究所)」に在籍されていたことは確かなようです。
とすると、研究所の中でもあまりパッとしない研究職に就かれていたことになります。
 
越智氏は、外国の文献を読んでCCDの事を知り、興味を覚えて独学でCCDの研究に取りかかります。1970年12月のことでした。
当時、越智氏は同じ固体撮像素子であるMOS型素子も研究していたそうです。
越智氏は、最初、CCDを遅延メモリの一環として研究を始めましたが(CCDの発明そのものが半導体メモリとしての使い方を考えていた)、撮像素子として使えそうだという着眼をしました。
ここが非凡な所です。
彼の研究は、自分で始めた事なのでもちろん社内のバックアップも何もありません。
その手作り製品は、8x8画素の64画素を持った撮像素子で、越智氏はこの撮像素子で『S』の字を撮影し(SONYの「S」なのでしょうか)、ノイズだらけながら文字を浮かび上がらせました。
入社11年目(1972年、ベル電話機研の研究者が論文を発表した2年後)のことでした。
この手作り製品を、研究所にやってきた岩間和夫副社長(1919.02 - 1982.08。当時、岩間氏は中央研究所の所長を兼任、1976年より1982年まで社長)が目にして、越智氏の人となりをすぐさま見抜いて大抜擢しました。
5ヶ月後の1973年11月には、研究員やプロセスのすべてを各工場から中央研究所に結集させて大きなプロジェクトとして発足させました。
 
当時(昭和48年、1973年)のソニーの会社事情と言えば、シャープが開発した4ビットマイコン内蔵の電子計算機の爆発的な売れ行きのあおりを受けて、6年前の1967年(昭和41年)に開発され主力製品となっていた電気計算機「ソバックス = SOBAX = Solid State Abacus、電子ソロバン」の売れ行きがぱったり止んでしまった時期でした。
創業以来の危機に直面した時期だったそうです。
岩間副社長は、そんな時期にソニーアメリカから呼び戻され再建を託されます。
彼は、伝説的なトランジスタ技術者として社内外に知れ渡った有名な人だったそうです。
トランジスタが発明された当時、増幅素子としてラジオに使うにはノイズが多く、補聴器以外に使い道のない電子素子、という定説を覆し、トランジスタの性能を向上させ、超小型のトランジスタラジオ開発の成功に導いたのが若き電気エンジニアの岩間氏だったのです。
彼が副社長として日本に戻った当時、ソニーは経営のどん底にあり、新しい核となる商品が咽から手が出るほど待ち望まれていた時期でした。
岩間副社長(ソニー中央研究所所長)は、核となる商品の一つとして越智氏が自発的に進めたCCDの開発を一大プロジェクトとして指定したのです。
 
彼らのプロジェクト目標は、8ミクロンの窓を持った20万画素(525画素x381画素)の撮像素子の開発でした。
この最終製品の前段階として、昭和51年(1976年)に7万画素素子を開発し、引き続き12万画素の開発を続けていきます。
製品開発は、歩留まりの向上、ゴミとの戦いだったと言います。
当時の素子の歩留まりは1/3,000以下だったそうです。
12インチのウェハーから8.8mm x 6.6mmの素子がおよそ1,000個程度できます。
歩留まりが1/3,000ということは、3枚のウェハーからたった1個のCCD素子しか作れないことになります。
彼らが手がけるCCD開発のプロジェクトは、彼ら自身にCCDの製造技術がなかったために一から出発をせざるをえず、完成させるまでに200億円の投資を行ったそうです。
5年の実用計画に対して6年3ヶ月を要し、最初の顧客である全日空に初号機を納めます。
 
社長の岩間氏は、製品も完成していない時に全日空に開発途上のCCDカメラを売り込み、注文を取ってしまいました。
目標があった方が拍車に開発がかかるだろうという社長の思惑があったそうです。
この件は、別の文献では全日空側が商品に対してすごい乗り気で、ソニーを説き伏せたような紹介がありましたが、テレビ番組ではソニー側から強力なお願いをしたように紹介されていました。
いずれにせよ、全日空も空の路線拡大に競争会社と激しいしのぎを削っていたので、目新しいサービス商品が欲しかったのだと思います。
そのCCDカメラが、1年の納期を経て1980年(昭和55年)6月1日に全日空のジャンボジェット機に搭載されました。
納品したカメラは、12万画素で、価格は1台30万円。
13機のジャンボ機にコックピットと前後輪脚にそれぞれ1台ずつ取り付けられました。
合計52台の納品だったことになります。
 
岩間社長は、その3年後の1982年、ガンのため63才の生涯を閉じます。
全日空のジャンボ機に搭載され、初めて固体撮像素子が世に出てこれからという矢先でした。
ソニーは、この成功の後、2kgの重量を切るレコーダ一体型カメラ(カムコーダ)の開発に乗り出します。
1985年1月には、最初の8ミリビデオカメラCCD-V8を発表しました。
画素は25万画素でした。これでソニーは市場を独占することになります。
1987年にはカメラの画素を38万画素に上げました。
 
1989年に発売した「パスポートサイズ」のHandycam TR-55は、2/3インチ25万画素のCCDで、これにはオンチップ・マイクロレンズが取り付けられていました。
これは直径7umの世界最小のレンズで、このレンズをつけたカメラは70年代半ばの試作機から比べ20,000倍の感度向上を達成しました。
岩間社長はその成功を見ることなく他界されました。
 
 
【越智成之氏の書籍 - 「イメージセンサのすべて」(工業調査会、2008年10月15日初版)】 (2009.01.03) 越智氏自ら書かれた「イメージセンサのすべて」に、CCD開発当時の様子が詳しく書かれてあります。
これを読むと、上記の記述とはいささか異なっている箇所が見受けられます。
その違っている部分を少しだけ紹介します。
 
入社当時の越智氏の仕事 - 越智氏は、トランジスタの研究を行いたくて、当時、トランジスタ(バイポーラ)で世界的に技術力の高かったソニーに入社されました。
そこで、エサキダイオードに代表されるようなトランジスタの研究をするつもりだったそうですが、企業では、基礎研究よりも製品に結びつく研究が優先されるため、そうした研究につくことはできず、MOSの研究部門に配属されました。
MOSは、米国RCAが開発した集積トランジスタの一種類で、ソニーが開発していた電子計算機(SOBAX)の回路に使われていたものの、ソニー内部ではMOSを主力に育てる機運がなかったそうです。SOBAXも、1973年に市場から撤退します。
MOSの研究をしていた越智氏は、その応用が利くCCDの開発に目を留めました。
 
闇研 - CCDの基礎研究は、当初、会社のお墨付きをもらえない自分勝手な研究(いわゆる闇研)と一般的にとらえられていますが、実は会社からの認可をもらって、研究室長や研究所所長には定期的な報告をされていたそうです。
ただし、研究費はつかなかったそうです。
当時のソニー中央研究所は、研究者の自由な研究活動の裁量が認められ、若々しく闊達な雰囲気があったのは事実のようです。 
 
死の谷の10年 - CCDの開発は、製品化にこぎ着けるまでに、大変な努力があったそうです。
新しい技術の発想があって(CCDの開発)、これを実用レベルに達するまでの製品化には、発想の10倍から100倍の技術が必要とされ、10年間も地下に潜って黙々と問題点を潰していく作業が繰り返されるとありました。
CCDの製品化が思うように行かない途上で、日立や日本電気との共同開発の話もあったそうです。
そこまで行き詰まりながら、会社をあげての一大プロジェクトに指定され、CCDの製品化が進められた、とその本で紹介されていました。
 
     
 
【CCD素子のキーワード】 (2007.04.09)
 
CCDの性能を理解するには以下のキーワードが不可欠です。 
下の図が固体撮像素子の模式図です。固体撮像素子は、精度の良いシリコン平面板に微細加工を施してシリコンのホトダイオードを作りあげ、一つ一つ埋め込んであります。
このホトダイオード1つを1画素(または1ピクセル)と言っています。
 
▲ 画素(pixel): 画像を構成する単位です。
デジタル画像は、すべて画素(がそ、ピクセル、pixel)のモザイクによって構成されています。
画素が多いほどきめ細かい画像が得られます。
もちろん、画素の内容(白黒なら濃度 = 8ビット、12ビット、16ビット、カラーなら色情報)が多ければより一層きめ細かい画像が得られます。
従来は、640画素x480画素あれば十分な画像と言われましたが、最近では1000x1000画素を越える画像が一般的になっています。
 
▲ 画素サイズ(pixel size): 1画素の大きさです。
1画素の大きさにはこれと言った規格がなく、メーカがまちまちに規定している感じを受けます。たとえば、あるCCDでは12x12umであったり、9.4umx9.4umであったり7umx7umであったりという具合です。
画素サイズが小さい場合の利点は、顕微鏡などの撮影の場合、高額な顕微鏡をあつらえて拡大撮影したときに、CCDの画素サイズが小さいとキメの細かい画像を得ることができます。
また画素サイズが小さいと、限られた寸法の撮像素子面上にたくさんの画素を入れ込むことができたり、同じ画素数であるならば小さい撮像素子にすることができます。
これは製造メーカにとって、製造上(歩留まりの観点から)有利です。
画素サイズが大きいメリットは、受光部が大きいので感度が良くなることです。
高速度カメラや高感度カメラには画素サイズが大きいものが使われ、16umx16um、25umx25um、40umx40umのものが作られています。
なお、画素サイズは正方形のものが計測用では一般的ですが、放送用には縦長の画素サイズが使われています。
こうしたカメラを計測用に使う場合には注意が必要です。
(その長方形画素のテレビ放送用撮像素子もデジタル放送と共に正方形になっています。(2019.05.01記)
 
▲ イメージサイズ(image size):
1画素のサイズ(Ph、Pv)が決まって画素数(Mh、Mv)がわかっているとその掛け合わせでイメージサイズ(Ih、Iv)がわかります。
 
Ii = Pi x Mi  ・・・(Rec -2)
  i = h、v (横方向、縦方向)
 
イメージサイズは、その大きさを表す場合、一般的に1インチ型、2/3インチ型、1/2インチ型、1/3インチ型という言い方で呼び、この呼称でだいたいの大きさがわかるようになっています。
この呼び方は対角線の長さではなく、電子管時代の呼び径を踏襲した言い表し方です。
大きいイメージサイズの撮像素子を使うメリットは、画素サイズを大きくすることができるためたくさんの電荷を蓄えることができ、相対的に感度の高い素子とすることができます。
また、カメラレンズも作りやすく性能の良い通常のレンズが流用できます。
イメージサイズが小さい素子のメリットはコンパクトなカメラができる可能性があることと、製造上、同じ大きさのウェハーからたくさんの撮像素子が出来上がるのでコストが下がり安価になることです。
私のように映像を計測手段とした仕事に従事していますと、固体撮像素子はできるだけ大きいものがうれしく感じます。
撮像素子が1インチ程度のものですとニコンFマウントのニッコールレンズが使用でき、広い範囲を撮影する際にも焦点距離の短いレンズを用意しなくてすみ、また画素も大きいため感度の高い素子となります。
レンズメーカも小型撮像素子用のレンズを作るのは難しいと言っています。
例えば1/3インチサイズ(4.89mm x 3.66mm)のCCDでは、768(H)x 494(V)画素のものが出回っていますが、この素子の1画素当たりのサイズは6.37um相当となります。
この値はすごい意味をもっています。
結論から言いますと、小さくて高解像力撮像素子を満足するレンズ製作は理論的に極めて困難です。
その理由は英国の物理学者レーリー(Reyleigh)が導き出したレーリーの回折限界で説明されるように、光の特性上結像面に光がうまく結ばずに光が回り込んでボケがでてしまうというものです。
レーリーの導き出したボケ量(許容錯乱円)dは、以下の近似式で表されます。
 
d = 2 x λ x F   ・・・(Rec -3)    d:許容錯乱円    λ:波長
   F:レンズ絞り
この式によりますと、λ = 550nm、F = 5.6でd = 6.16umとなり、レンズをF5.6以上に絞り込むとレンズの解像性能が撮像素子のサイズ‹に負けてしまいます。
従って、今後はむやみに細かな画素を持った小さな撮像素子は出てこないように思われます。
ICの製造技術は驚くほど進歩して小さな画素の製造など簡単に行えるようになりました。
しかし、レンズが悲鳴を上げています。
撮像素子のイメージサイズが大事な理由の一つがこのレンズとの相性なのです。
 - - - 上記の私の考察もむなしく、昨今のスマートフォンの撮像素子は1画素0.8 umのものが発売されました(【スマートフォン カメラレンズの怪】)。(2020.02.11追記)
 
▲ 受光サイズ:
実際に光を受けるフォトダイオードの大きさです。
1画素サイズそのままの大きさが受光部になるものは、フルフレームトランスファ型CCDだけで、他の多くのCCDは転送回路などが配置されるため受光サイズは小さくなります。
 
▲ 開口率(fill factor):
1画素面は全てを受光部としているわけではなく画素の中のある部分をホトダイオード部としているため撮像素子に入射する光をすべてホトダイオードで受けられるわけではありません。
この受光部面積と、素子面積の比を開口率(Fill Factor)と呼んでいます。
CCD撮像素子は、数種類のタイプのものがありますが、その中の最もよく使われているインターラインライントランスファ型CCD(電子シャッタ内蔵のCCD)では、同一平面内に受光した電荷を電気信号として取り出すための転送部を配置しなければならないために、開口率が小さくなります。
フレームトランスファー型CCDは電荷の転送を画素を使って転送するために、つまり素子上に電荷を転送する専用の道がないために開口率を100%にすることができます。
解像力を述べるとき、画素数よりもこの開口率が大きく影響を及ぼすことがあります。
 
▲ 受光電荷容量(dwell capacitor):
1画素に光を蓄えることができる能力を受光容量とか受光電荷と呼んでいます。
当然、画素サイズが大きいものや開口率が大きいものほど受光電荷量が大きくなります。
この受光容量に関してはCCDカメラ素子は色々なタイプのものが出回っていてそれぞれに特徴があって簡単に言い表せないのですが、フレームトランスファタイプのCCDカメラで電子冷却を備えている素子ほど受光容量は多く、インターライントランスファ型のように受光面積が小さいものほど受光容量は小さい傾向にあります。
この受光容量の度合いは画像の濃度情報に影響を与えます。
受光容量の大きいものは16ビット(65,500階調)のものがあり通常は8ビット(256階調)です。シリコンによるフォトトランジスタは、基板の熱によって電荷をランダムに発生してこれがノイズとなります。
光によって蓄えられた電荷と熱電子によって運び込まれるノイズによって信号と雑音信号の比(S/N比)が決まりますが画質の良いCCDはこのS/N比がよくノイズに影響されないキチンとした信号成分を取り出すことができます。
撮像素子のノイズは熱電子の他に、アンプ雑音(受光部で検出した光電荷を増幅するときに生じる初段トランジスタ発生ノイズ)、リセット雑音(読み出しのリセットをする際に発生する雑音)、光ショットノイズ(入力光そのもののノイズ)などがあります。
物理学用で使われるフレームトランスファ型のCCDは16ビットのものがあり、高速度カメラ用には8ビットのものが一般的です。
 
▲ 量子効率(Quantum Efficiency、QE):
1つの光子(hν)で1エレクトロンの電子が発生することを量子効率100%と言います。
計測用CCDなどで、光子エネルギーが論議される分野では、重要な性能要素です。
詳細は、■QE(Quantum Efficiency、量子効率)を参照を参照してください。    
 
↑にメニューバーが現れない場合、
クリックして下さい。

 

【CCD撮像素子の種類】

CCD型固体撮像素子は、いろいろな進化、発展を遂げてきました。 受光方式、転送方式の違いによって以下の5種類のものがあります。
 

1. インターライントランスファー型(IT-CCD)  -  現在、一般的なもの

2. フレームインターライントランスファー型(FIT-CCD) - 放送局用として使われているもの

3. フルフレームトランスファー型(蓄積部なし)(FF-CCD) - CCDの初期のもの

4. フレームトランスファー型(蓄積部あり)(FT-CCD) - フレームトランスファ型の改良版

5. 全画素読み出し(プログレッシブスキャン)型 - インターライントランスファの改良型(インターレースを行わないもの)

   (ただし、これは1.のIT-CCDのジャンルに組み入れられている)
 
 
8mmビデオカメラやビデオカメラでは、ビデオ信号に変換しやすい1.のインターライントランスファー型CCD(IT-CCD)が使われ、放送局用のビデオカメラには2.のフレームインターライン型CCD(FIT-CCD)が使われています。
400万画素などのデジタルカメラや計測用の高解像力カメラには3.のフレームトランスファ型CCDカメラ(FF-CCD)が使われます。
最近は、プログレッシブスキャン型CCDカメラ(Progressive Scan、全画素読み出し方式CCDカメラ)が開発されて、放送規格にとらわれないデジタルカメラやハイビジョンカメラに多用されるようになりました。
上図にCCD素子の概念図を示します。
  CCD撮像素子の特徴は、何れのタイプも受光した電荷を一つ一つバケツリレーのように転送していく方式です。     
 
■ フルフレームトランスファー型CCD
3.に示したフルフレームトランスファー型CCD素子は、上の図を見てもおわかりのように構造が比較的シンプルであり受光部も大きく取れ、撮像素子面に占める受光部(開口率)が大きいのが特徴です。
開口率が大きいというのは、被写体の空間情報に連続性が得られ、被写体情報に欠落がない画像が得られます。
受光部が大きいのは、光をたくさん受けますので感度が良くなります。
また構造がシンプルなのでたくさんの受光部を作ることが可能で、1024x1024画素とか、2048x2048画素、4096x4096画素のCCDが開発されています。
計測用のCCDカメラにはできるだけ開口部が大きく、明るく、S/Nが良く、高解像力で、ダイナミックレンジが大きいカメラが求められますので、このタイプのものが使われます。
天体観測用のCCDカメラもこのタイプのCCDカメラが多いようです。
 
フレームトランスファ型CCDは、CCDの中では最もシンプルな構造で製造も簡単ですが、インターライン型のように受光した電荷を転送する転送部を別に設けていず、受光部がそのまま転送部の役割も果たすので、受光された電荷は垂直の画素(受光部)を跨ぎ(またぎ)ながら転送されていきます。
このときにカメラレンズを通して光が入り続けると転送中に電荷が増え、結果的に像が縦方向に流れたようになります(スミア現象)。
従って、フレームトランスファ方式では受光が終わったら撮像面をメカニカルシャッターのようなもので遮光し転送を行うか、蓄積時間時にストロボのような短時間発光をする照明を用いてシャッタリングをする必要があります。
 
以下に、わかりやすいフレームトランスファ型CCDの受光・転送メカニズムを説明します。
   
 
■ フレームトランスファ型CCDの受光・転送メカニズム説明 (2007.03.28)(2007.09.01追記)
 

 

上図に、フレームトランスファ型CCD撮像素子の受光メカニズムを概念図として示します。 光を雨粒と見立てました。
光を電荷に変えて転送するメカニズムをバケツリレーに見立てました。
FT(フレームトランスファ)は、CCDの最初のタイプです。
構造がシンプルなので、CCDの仕組みを理解するには一番良いタイプだと思います。
現在のCCD素子はこのタイプのものとは違いますが、基本的な考え方は同じです。
また、実際のCCDは、上の模式図とは違って、レンズで受光し光電変換した電荷を転送する方式となります。
ですが、ここでは便宜的にメカニカルな機構に置き換えて説明します。
 
【模擬図の説明】
CCDは、光の雨を受けるバケツ(画素)がたくさん配列されたものと見なすことができます。
バケツが512x512個並んで雨を受けていることを想像すれば良いでしょう。
バケツが大きければたくさんの量を溜めることができます。
また、長い時間をかけてバケツをかざしていれば、相当な量を蓄えることができます。
長い時間をかけてバケツをかざすことは、カメラの露出時間を長く取ることを意味します。
 
【受光 - 光の雨】
バケツが光の雨を受けているときは、バケツをリレーする機構部は停止しています。
ずっと光の雨を受け続けています。
光の雨を受けるバケツには実は少々問題があって、長い時間受けているとバケツで受けた光の雨が漏れ出たり、回りのバケツやリレー機構部から水が漏れ入ってきます。
漏れる度合いは、バケツ(CCD)の大きさや性質によって違いますが、通常ですと1秒程度で現れます。
これはCCD用語(トランジスタなどの固体素子)では熱ノイズと呼んでいるもので、本来の受光による光量電荷ではなく、画像に悪影響を与えます。
光の雨が非常に微弱ですと揺らぎとよばれる特殊な光の性質によりショットノイズというものも現れます。
これはフォトンを扱う領域で現れます。
光の雨による電荷(signal)と漏れ入る電荷(noise)の量は、計測カメラなどでは公表されていることが多く、S/Nという言い方で示されいます。
S/Nが40dBですと、ノイズが信号に対して1/100であることを示しています。
60dB程度の性能があれば1/1000(1:1000)であるので、とても優秀なバケツ及び送り機構であると言えるでしょう。
また、別の計測カメラではこの不純成分をダークカレントノイズ(暗電流ノイズ、dark current noise )という言い方で表し、2e-/pixel/sというような表記がなされます。
これは、1ピクセル、1秒当たり2エレクトロンノイズが入ることを示しています。
10秒露光すると20エレクトロンの電荷が貯まることになります。
 
【バケツの種類】
さて、バケツですが、バケツには光の雨を受けるものと、光の雨は受けずにバケツリレーを担って受光した光の雨を受けてそれを運ぶものの二つがあります。
前者は画素と呼ばれているものであり、後者は水平転送部と呼ばれるものです。
転送部は垂直転送部と水平転送部の二つがあり、整然とバケツリレーを行います。
垂直転送部は、初期の頃のものは受光バケツが行っていました。
受光と転送の二つの機能を受け持ちます。
これが今回説明してるものです。
水平転送部は、右の図では左端の少し大きめに描かれたもので上に蓋が乗っているものです。
この模擬図では、垂直転送をメインに描き表しているので、水平転送のセル(バケツ)は一つしか描かれていません。
しかし、実際のところ水平転送部はこの図から見て奥行き方向に水平方向分の画素列数だけ転送用のバケツがあります。
 
【フレームトランスファ】
受光が終わると、CCDは画像を転送するプロセスに移ります。
この時、多くのフレームトランスファ型CCDでは撮像素子の前をメカニカルシャッタで遮光します。
なぜなら、フレームトランスファでは光の雨を受けたバケツそのものを使ってバケツリレーを行うので、雨よけをしないと、バケツリレーをしている間にも雨が入ってきてうまくないからです。
 
【水平転送の仕組み】
まず、最初に水平転送部(左図の一番上の図、左端)のバケツが下がります。 光の雨を受けたバケツからのリレーを行いやすくするためです。
水平転送部のバケツが下がったら蛇口機構部(遮断板)が下がってバケツの底に設けられている排出孔から光の雨に相当する電荷が開け渡されます。
 
【バケツの昇降】
バケツが上がったり下がったりする仕組みが実は、フレームトランスファの真骨頂です。
これは、実際のCCDでは、電位を上げたり下げたりしてこの機能と同じことをしています。
パナマ運河の水門を開け閉めして水位を上げたり下げたりして船を運航させるのを想像すれば良いかと思います。
CCDの原語であるCharge Coupled Device のCharge Coupled というのが、実はこの電圧の上げ下げによる光量電荷の転送を意味しています。
 
【転送の仕組み】
水平転送部に電荷を開け渡した1番目(左端の水平転送部のセルから数えて右方向1番目)のバケツが空になると、バケツは下がります。
1番目のバケツが下がるのを見計らって、2番目のバケツの蛇口機構部(遮光板)が下がり、電荷が1番目のバケツに移ります。
2番目の電荷が移し終わると、以下同様に、次のバケツの電荷を受け取って、順繰りに電荷を若い番号のバケツに移し替えて行きます。
垂直画素のバケツの電荷がすべて1画素分若いバケツに移し替えられると、1番目のバケツは水平転送部に明け渡すタイミングを見計らいます。
と言いますのは、水平転送部は垂直転送部から下りてきた1水平画素分の電荷を休みなく出力段に送り続けていてとても忙しいからです。
例えば、512画素(水平)x512(垂直)のCCDがあったとすると、右に示した垂直転送部は512列水平に並ぶことになり、それぞれの1番目の画素が512個同時に水平転送部に移ります。
水平転送部では、512回バケツリレーによって電荷を転送します。
水平転送部が転送している間に、垂直転送部では上で示したような機構によって1番目のバケツに次の電荷が来るように準備します。
512x512画素の場合には、垂直と水平の画素数がちょうど同じなので、垂直転送部の初期段階は同じ画素数となります。
しかし、転送の終わりになってくると垂直成分に残っている画素が少なくなってくるので、短時間で垂直転送部から水平転送部に移す作業が終わり待ち時間が多くなります。
 
【転送のタイミング】
フレームトランスファ機構を見てみると、一種のオートメーション工場のようです。
古い言い方をすればベルトコンベア工場のようです。
転送部は絶えずバケツが上下していて、蛇口機構でバケツの中身を転送するかどうかのタイミングを図っています。
CCD撮像素子は、このようなベルトコンベア機構と同じような電子回路があって忙しく立ち働いているのです。
忙しく立ち働くというのは電気をたくさん食うことにもなります。
絶えずベルトコンベアが動いているのでそのための駆動電源が必要になるのです。
CCDカメラから電荷を取り出す場合、デジタル回路ではクロックによって理路整然とバケツリレーを行っています。
例えば、100kHzのクロックで512x512画素を読み出したとすると、1クロックに1画素の転送を行いますから、
 
512画素x512画素 / 100,000 Hz = 2.62秒  ・・・(Rec -4)
 
1枚の画像を読み出すのに2.6秒かかることになります。
クロックを1MHzにすれば、0.26秒となります。 クロックを速くしてバケツリレーを速く行わせると、これは容易に想像できることですけれど、バケツ内のデータが暴れて飛び散ったり他のバケツに入り込んだりします。
つまり画像の画質が悪くなります。
CCDは、電子制御によってデータ転送を行っているとは言え、一般のバケツリレーと同じような現象が起きます。
従って、貴重な画像データをきれいに送るには、慎重にゆっくりと送らなければなりません。
その意味で、天体観測用のCCDカメラなどは、転送に1分程度の時間をかけてゆっくりと転送をしています。
フレームトランスファ型CCDでは、高速データ転送が難しい理由がこれで理解できると思います。
またこのタイプでは、受光が終わって転送を行う際に遮光をしなければ余計な光が紛れ込んでしまいます。
メカニカルシャッタを素子に付けなければならないという点においても、高速撮影が苦手なことが理解できます。
従ってこのタイプでは、5 - 10コマ/秒程度の撮影が最大となります。    
 
 
■ 蓄積部を持つフレームトランスファー型CCD
上図のように、4.の蓄積部を持ったフレームトランスファー型CCDは、3.の蓄積部なしのフルフレームトランスファー型CCDに比べて蓄積部への転送を速く行うことができます。
この機能をもたせたのは、CCDの特徴の一つであるスミア(スメア)を除去する目的がありました。
蓄積部は、アルミの遮光幕で覆われているので、蓄積部から水平転送部へ送る時間をゆっくりにしても外部からの余分な光を十分に遮ることができます。
したがって、このタイプでは、フルフレームトランスファ型CCDで必要であったメカニカルシャッタの装備は必ずしも必要でなくなり、30コマ/秒の撮影が可能になりました。
ただし、このカメラの場合、縦方向成分の500画素から1000画素程度を一気に蓄積部に転送しなければならない関係上、これが転送時間の限界となっています。
転送のタイミングは、カメラが受光を終わって読み出しを始める垂直ブランキング期間に転送する事が多く、この期間がだいたい1ms〜2ms(1/1,000秒〜1/500秒)です。
この転送時間では、強いスポットが被写体にある場合に依然としてスミアが出てしまう可能性があります。
いずれにしても蓄積部のあるフレームトランスファ型CCDの転送は、それほど速く機能させることができません。
蓄積部のあるフレームトランスファ型CCDは、撮像素子の半分が遮光膜で覆われているので外見から一目でそれとわかります。
CCD素子の初期の頃には、このタイプのものが作られましたが、スミアが現れるのでインターライントランスファ型CCDの完成とともに作られなくなりました。
   
 
■ インターライントランスファー型CCD
1.のインターライントランスファー型CCD(IT-CCD)は、CCDの代名詞とも呼ばれる代表的なものです。
このタイプのCCDは、「電子シャッタ」が行えるという画期的なものでした。
もちろん開発の目的は、電子シャッタではなく、CCDカメラの特徴であるスミア(スメア)低減でした。
電子シャッタは、VOD(Vertical Overlfow Drain)という機能を追加することで完成します。
 
インターライントランスファー型CCDは、歴史的に見ると最後の方に開発されたもので、1986年には、露出時間をサブミリ秒まで制御できる電子シャッタ機能が付加されました。
シャッタ機能は、我々計測屋にとってはとても好ましい機能です。
通常の市販のCCDカメラでは、1/10,000秒(100us)程度のシャッタ機能が設けられ、計測用のCCDカメラでは1/1,000,000秒(1us)から0.1us(100ns)のシャッタ機能を持つものも市販されています。
 
CCDカメラを市販化しようとした1980年代前半は、放送規格(NTSC規格)がテレビ規格の標準でしたから、これに準拠させようとして、すなわち525本の走査線で、30枚/秒の撮像ができるように設計が行われ、そして改良につぐ改良を経て良好な製品ができるようになりました。
インターライントランスファー型CCDは、そうした高速取り込み(30フレーム/秒)ができるものとして開発されました。
インターライントランスファー型CCDの撮像原理は、【CCD撮像素子の撮像、転送原理】で詳しく触れています。
このタイプのCCDから派生したプログレッシブスキャン型CCDカメラ(インターレース方式ではなく全画素を一気に読み出す方式のカメラ)が、工業用、計測用、コンシューマー用のデジタルカメラに受け入れられるようになりました。
当初、2/3インチから始まった撮像面サイズも、放送局用のCCDカメラは別として、1/2インチ、1/3インチと小型化が進み1/4インチが主力製品となっています。
画素数も、1982年当時は20万画素(480V x 400H)であったものが、100万画素を越えるものが市販化されるようになりました。
1画素の大きさも、発売当初は、13um x 22um程度でしたが、5um x 5um以下のものまで製品化されるようになりました。
     
 
■ フレームインターライントランスファー型CCD II.のフレームインターライントランスファー型CCD(FIT-CCD)は、インターライン型でありながら蓄積部を兼ね備えたCCDであり、初期のインターライン型よりさらなるスミア(スメア)現象防止のために開発されました。
テレビ放送などで、夜間撮影で街路灯や車のヘッドライトの強いスポットがカメラに入ると上下に縦の輝線が走る現象を見たことがあるかと思いますが、あれがスミア現象です。
もっともこの現象は2000年前半頃までの話で、最近ではほとんどこうした現象は見られなくなりました。
この不具合を持った放送局用のカメラはもう使われていないということです。
携帯電話についているカメラや安価なデジタルカメラには現在でもこの現象が現れることがあります。
この不具合は、画像を垂直転送部で転送する場合に1/60秒かけて転送するので、その間に強い光の迷光が転送部に入り込んでそのためにおきる現象です。
この現象をおさえる手だてとして、垂直転送部に留まっている時間を少なくして速やかに蓄積部に移す方式が考えだされました。
それがフレームインターライントランスファ型CCDです。
通常のインターライン型CCDは、16.67ms(1/60秒)で転送を完了しますが、フレームインターラインタイプのものは240us程度にすることができ、1/69.4倍(1.4%)に時間を短縮できるので、転送中に光が当たるのを短くすることができます。
フレームインターラインは、このようにスミア低減に効果があり、高級CCDカメラ(放送局用CCDカメラ、ENG = Electronic News Gathering カメラ)に採用されています。
放送局用カメラは、現在2/3インチのFIT-CCDが使われ、画素数が40万画素から60万画素が使われています。
 
 
■スミア/スメア(smear):  (2007.04.09追記)
スミアとは、CCD撮像素子に起きる特有の現象で、光の漏れ込みによって画像の明るい点を中心に画像縦方向に縞状の強い輝線が走るものです。
スミアの発生は、受光した電荷の垂直転送を行う際に順送りに電荷を転送することに起因しています。
インターライントランスファー型CCDでは、垂直転送部に遮光処置を施して、入射光の影響が極力出ないように作られています。
しかし、それでも100%完全というわけにはいきません。
現実には受光部と垂直転送部の境界部分で遮光が完全でなかったり、撮像素子面で光が多重反射して側面から光が侵入したり、遮光幕も完全ではかったりとわずかな光の混入は避けられないのです。
シャッタ機能を使って非常に短時間のシャッタを働かせたり(これは相対的に受光部に入る光が強くなることを示しています)、感光部の一部に輝度の高い部分がある場合、遮光を施している垂直転送部にもわずかですが影響が出てきます。
通常のインターライントランスファ型CCDは、垂直転送部を1/60秒かけて画像を転送しています。
つまり転送部には最大16.67ms時間分電荷が留まっていることになります。
たとえ電子シャッタ機能によって1画素に1/10,000秒(100us)の蓄積を与えても、転送部で16.67msの足止めをかけられるため、光の漏れが0.01%程度あったとすると、以下のような計算によって、
 
    0.01/100 x 16,667/100 = 0.0167  ・・・(Rec -5)
 
見かけ上、1.67%もの余分な光を拾ってしまいます。
これが10usのシャッタ時間だと16.7%、1usのシャッタ時間だと100%を越えてしまう、つまり露光時間に得た光量より転送時間で入射した光量の方が多くなってしまう計算になります。
画面の中にスポットのような明るい輝度の被写体がある場合も同じような現象が起きます。
明るい輝度のものは100%近い飽和電荷量でセル(画素)に電荷を蓄えます。これがインターライントランスファー型CCDで転送部に移されても読み出し期間中わずかながらも遮光漏れが生じると、本来あるべきハズのない部分に光が被るようになり、視覚上無視できない像となって現れてしまいます。
初期に作られたCCDには、スミアを持ったものが多くありました。
現在のカメラはスミア対策を施してあるので、よほど安価なCCDでない限りスミアを認めることはなくなりました。
しかし、極限的なカメラの使い方をするとスミアが現れます。
 
以下にその参考例を示します。
右の写真は、計測用のCCDシャッタカメラ(インターライントランスファ型CCD)で撮影したサンプルです。
白熱電球のような非常に輝度の高い被写体を電子シャッタを使って撮影する場合、1/1000秒程度までであれば特に画像に支障がでることはありませんが、電子シャッタを短くしていくと像が垂直方向に流れてしまいます。
右の写真の#4は、100ナノ秒というとても短いシャッタを設定したときの画像です。
(計測用のCCDカメラではそれができるのです。)
100ナノ秒に露光をセットして撮影すると、非常に明るい白熱電球自体でさえも露光時間が短いため撮影されず、代わりに1/30秒の転送時間中(33.3ms = 100ナノ秒の333,000倍も長い時間)に強い光が撮像面に入り続けるため(なにせ、100ナノ秒で露光を行うので相当強い光を撮像面に入れないと適正露光が得られないので)、結果として垂直方向に画流れが起る画像となってしまいます。
別のタイプのCCDであるフレームインターライントランスファー型CCDは、インターライン型でありながら蓄積部を兼ね備えたCCDで、転送部に電荷が留(とど)まっている時間を最小に抑えて速やかに蓄積部に移すタイプのものです。
このタイプは放送局用のENGカメラに使われているものです。
通常のインターライン型CCDは16.67ms( = 1/60秒)で転送を完了しますが、フレームインターラインタイプのものは240us程度で蓄積部に移すことができます。
こうすると、垂直転送部に留まっている時間を1/69.4倍(1.4%)に短くすることができます。
フレームインターライン型CCDは、このようにスミア低減に効果があり高級CCDカメラ(放送局用CCDカメラ)に採用されています。
しかし、この値は、スポーツ放送を含めた一般的な撮影には許容できる時間となるでしょうが、1usを扱う科学技術計測分野では依然スミアが出てしまう危険性があります。
スミアは、CCD固体撮像素子を使う以上避けて通ることができない特性です。
通常の画面では検知しにくくはなっていても、現実には数%のオーダーで転送中に余分な光を被って画質に悪影響を与えていると考えて良いと思います。
メーカではこの点を憂慮して迷光が垂直転送部に入らないようにCCD製造工程の製造精度を上げたり(マスク合わせ誤差の低減)、受光部に効率よく光を集めるマイクロレンズを使って光を画素方向に集中させる工夫をしています。
 
■ブルーミング(blooming)(2000.09.16)
bloomとは、もともとは花びらが広がるという意味です。
CCDの画素に明るいスポットが当たると周辺まで光が回り込み(電荷が隣の画素にあふれ出し)にじむような現象になることをブルーミングと言います。
CCDは、構造上垂直方向に電荷が漏れやすいので光量漏れは縦方向に広がります。
従って、丸いスポット輝度でもブルーミングが激しいと縦長となります。(右写真、天体写真の星を参照。)
ここで気をつけなければならないのは、ブルーミングはスミアと違うということです。
ブルーミングは受光部に飽和光量以上の強い光が入射して溢れだすもので、スミアは垂直転送時に入ってはいけない光が漏れ入る現象のことです。
スミアの方が縦線が長くなります。
ブルーミングを避けるには、受光部(ホトダイオード)の下部、基板面に対して、垂直縦方向に強い光によって溢れ出た余剰電荷を捨て去る構造(VOD = Vertical Overflow Drain)を組み入れて、ブルーミングの改善を施す方法があります。
現在のCCDカメラは、この方式を採用して大きな効果を得ています。
VOD構造は、大きな副産物も生み出しています。
VOD部にある時間タイミングで掃き出しパルスを与えて、ホトダイオードに蓄えられた電荷を逐次掃き出しを行って必要時間分だけの電荷を蓄えるという「電子シャッタ」機能を付加できたことです。
したがって、最近のCCDカメラは、初期の頃に比べてほとんどブルーミング現象が起きなくなりました。
初期の頃のカメラ、つまりフレームトランスファ型CCDは、100%の開口率であるため余分な光を排除するドレインを作ることができないため、オーバーフローした電荷が右の写真のように垂れるように上下の画像に流れ込んでしまいます。
天体観測用分野では、現在でもこのタイプのカメラが使われているので、ブルーミングは撮影を行う上で気をつけなければならない要素となっています。
 
■ VOD(Vertical Overflow Drain) 構造 (2008.05.07)
CCDの開発の歴史をひもといてみますと、CCD撮像素子開発はスミアとブルーミングとの闘いだったような気がします。
こうした現象をいかに抑えるかがCCD性能向上を計る上で大きな課題だったといえます。
これを低減させるために、いろいろなタイプのCCDが作られてきた印象を受けます。
ブルーミング低減の一つの方式として、受光部に溢れ出た電荷をグランドに速やかに流し去る方法が考えだされました。
これがオーバーフロードレインという方法です。
これは洗面所やお風呂の浴槽にあるオーバーフロードレインと同じで、あふれそうになる水を槽内の排出孔から強制的に流し去る構造と類似しています。
そうしないと溢れ出た水が周りにまき散らされて水浸しになってしまいます。
ブルーミングとはそういう現象なのです。
オーバーフロードレイン構造は、初期は撮像素子の画素の横に溝を掘って排水溝を作っていました。
これをLateral Overflow Drainと呼びました。
しかし、この方法は、素子の受光面を掘割してドレイン回路を作るので、受光部面積が圧迫されてしまいます。
この方法に対して、ドレイン部を素子の垂直方向に配置して受光部下部の基板に余分な電荷を直接排出する構造が考え出されました。
受光部の底にドレイン孔を設けて、電荷を浴槽の下から抜いてしまおうというのがVODです。
こうすれば、素子面をドレイン部(排水溝)で取られることがなく広く使うことができ、感度低減を回避することができます。
また、このドレインは、水位の高さ調整を任意に行うことができ、受光槽が溢れるレベルよりも下に設定しておけば回りの槽に電荷が溢れる出ることはありません。
ドレインの高さは必要に応じて槽内の下部まで下げることができます。
このドレインを下側に設けたことで、副次的な産物を生み出しました。
この構造は、電荷を完全に抜き取ることができるので、必要に応じて受光部を空っぽにしておくことができます。
これが電子シャッタ効果を生み出すことにつながりました。
30フレーム/秒で撮影するカメラでは、1/30秒のほとんどをVODのドレインに流し続け、転送が始まる直前にドレインコックを締めて受光を開始し、その後貯まった電荷を転送部に明け渡すという芸当ができるようになりました。
     
 
【インターライントランスファ型CCD撮像素子の撮像、転送原理】
インターライントランスファー型CCD撮像素子の構造は、右の図を見てわかるようにかなり複雑です。
CCDの基本的な転送方式は、上のフルフレームトランスファ型CCDの所で述べました。
図のインターライントランスファタイプは初期の頃のもので、後期のものはかなりの改良が施されているため必ずしも同一のものとはなっていません。
図のタイプに示したCCD撮像面のシリコン基板の上には、光を電荷として蓄える受光部と、貯めた電荷を一ヶ所に集めるための転送部が設けられています。
模式的に転送部を大きく描いてありますが、図のような小さな感光部では開口率(素子全体に占める受光部の割合)が悪く、光を撮像素子上に投影しても多くの光を受光できずに低感度の撮像素子となってしまいます。
この欠点を補うため転送部をできるだけ細くしたり、感光部に光を集光させるためのマイクロレンズをつけて集光度を上げる工夫をしています。
構造を見ているとオートメーション工場のベルトコンベアのような感じを受けます。
縦横無尽に電荷を運ぶための転送部が張り巡らされていて、タイミング良く各セル(画素)で蓄えられた電荷が運び出されて行くようになっています。
転送の方式は、縦方向は4相電極による転送が一般的で、水平は2相駆動が主流です。相駆動というのは、垂直転送部のV1からV4の電極に90度ずつずれたパルスを印加させる方式です。
この方法によって、転送部に移された受光蓄積電荷が各相の駆動パルスによってバケツリレーのように運ばれて行き、左下の取り出し口(下図)から押し出されて画像信号として取り出されます。
このようにして、平面に展開された撮像素子の各画素で蓄えられた受光電荷が一箇所から順序よく取り出されます。
 
 
■インターライントランスファー型CCDのシャッタ機能
垂直転送部とVOD機構を持ったインターライントランスファ型CCD(IT-CCD)は、電子シャッター機能があります。
これは高速度カメラや計測用カメラでは非常に有効な機能です。
初期の(グローバルシャッタ機能を持たない)MOS型固体素子や、フルフレームトランスファー型CCDにはシャッタ機能がありません。
IT-CCDでは受光した電荷をあるタイミングで1-2usの時間で転送部に渡します。
転送部に渡すタイミングはCCD素子で若干の違いがありますが、垂直ブランキング(テレビ画面の左上から読み出し始めるタイミング)の前後5us程度で行われます。
電子シャッタは、電荷を垂直転送部に渡す直前までの一定の時間だけ受光し、それ以前に受光した電荷は強制的に掃き出すものです。
掃き出すのは一回の動作でなく水平読み出し時間(1H)のタイミングで何度も吐き出し信号を与えて各セル(画素)に貯まった電荷をオーバーフロードレインに掃き出します。
垂直転送部にシフトするタイミングが近づくと、予め決められた露光時間分のタイミングで掃き出しを止めて露光を開始し、露光時間が経過した時点で垂直転送部にシフトさせます。
こうして電子シャッタが働きます。
 
 
■フレーム蓄積とフィールド蓄積(フレーム読み出しとフィールド読み出し)(Frame/Field Integration, Frame/Field Readout)  (2008.05.18)(2008.006.01追記)
1990年代までの計測用CCDカタログを見ると、CCDの性能の欄にフレーム蓄積とフィールド蓄積という機能が書かれています。
また、計測用のCCDカメラを購入すると、取扱説明書にフレーム蓄積とフィールド蓄積の設定の仕方が書いてありました。
しかし、現在主流になっているプログレッシブスキャン型CCDではこの機能を設けていません。
新しいカメラは、従来の煩わしい考えをしなくてもそれ以上の画質とシャッタを行えるようになったからです。
1990年代までのビデオカメラは、高速撮影(=短時間露光などの計測撮影)に複雑なテクニックを必要としました。
ビデオ信号を利用したカメラを計測カメラとして使おうとした場合、面倒な所作が必要だったのです。
 
フレーム蓄積とフィールド蓄積とは、いったいどういう意味と効果があるのでしょうか。
 
インターラインフレームトランスファ型CCDは、今まで何度も述べているように、NTSCと呼ばれる放送規格に準拠した読み出し方式の撮像素子として開発されました。
ビデオカメラ用の素子として開発されました。
この規格では、1秒間に30枚の映像が作られ、1枚の映像(1フレーム)は2つの画面(2つのフィールド)によって構成されていました。
(これをインターレース方式と言い、2011年まで放送されているアナログ放送はこの規格に従っています。)
また、1枚の映像(1フレーム)の垂直走査線は、525本と決められていますから、1フィールドはその半分の262.5本となります。
1フレームの半分が1フィールドです。
このフレーム、もしくはフィールドを使った画像の蓄積(読み出し)の違いを、フレーム蓄積、もしくは、フィールド蓄積と呼びました。
なぜ、このような難しいフィールド/フレームと呼ばれる方式をNTSCは採用したのでしょう。
これは、インターレース(interlace)という項目で詳しく触れていますが、要するにテレビができた当時はこのような方式を取らざるを得なかったということです。
わかりやすい送信の方式を取る技術が当時無かったということです。
わかりやすい技術とは、525本の走査線を1秒間に60回の割合で送るという方式です。
当時、それだけたくさんの映像情報を送る技術が無かった、しかたなく2回に分けて送った、それが2フィールド1フレームの画像だったわけです。
 
▲テレビジョン規格のCCDを計測用に使わなければならなかった時代:
一昔前までは、今のように多様化した撮像素子がなかったので、放送用に使われていたテレビカメラを計測用として使うことが一般的でした。
NTSC規格に準拠したビデオ画像(ビデオ信号)をうまく利用していたのです。
たとえば撮影速度が欲しい応用には、1フィールドを1枚として1画面を構成し、60フィールド/秒とみなして相対的な撮影速度を上げて使っていました。
しかし、これを通常のVTR(ビデオテープレコーダ)に記録して再生し、希望する画像を「Still = スティル(静止画)」機能で止めると2枚の映像がパカパカと重なって再生されます。
これは、通常のVTRが2フィールドを1フレームとして画面を構成するという約束を守って1/60秒ずつずれた映像を交互に再生するために起きる問題です。
テレビカメラのこのような撮影の仕方をフレーム蓄積(フレーム読み出し)と呼んでいます。
計測分野で通常のVTRを使う場合は、上記の問題が現れるので、フィールド再生ができる業務用のVTR(もしくは計測用の特殊VTR)を使っていました。1フィールドずつを磁気ヘッドで読み出して表示するというのは一般的なビデオ信号出力ではあり得ないことだったのです。
 
▲ 1/30秒の露光を持つフレーム蓄積(Frame Integration)
フレーム蓄積による撮影では、1フィールドが1/30秒の蓄積となり、これが1/60秒ずつずれて画像が形成されていきます。
1フィールドの画像は前後のフィールド画像と1/60秒ずつオーバーラップした時間情報を持っていました。
この方式では、1画像(1フィールド)が時間軸に対して完全に独立したものではありませんでした。
従ってこの露光方法で、画像解析を行おうとすると、時間情報が曖昧なものになってしまいます。
画質はフレームで得られるので良好な反面、時間に対してルーズな画像となります。
映像を垂れ流す放送映像であれば、これは特に問題とならなかったようですが、計測分野では大きな問題となりました。
この問題は、電子シャッタの採用以前はストロボの短時間発光で解決を見たり、電子シャッタの採用で大きな問題とならなくなりました。
 
▲ 時間の同時性を重視したフィールド蓄積 (Field Integration)
フィールド蓄積は、フレーム蓄積とは反対に1/60秒単位で2つのフィールドを合成して取り出す方式です。
つまり、1/60秒のタイミングで奇フィールドと偶フィールドを合成して1つのフィールドとして出力します。
フレーム蓄積では、フィールドの蓄積時間は1/30秒となるのに対し、フィールド蓄積では1/60秒と半分になります。
この方式は、フレーム蓄積に比べて時間的な整合性が取れるようになる反面、2つのフィールドの空間成分が1つのフィールド成分で合成されますので垂直解像力は悪く(半分に)なります。
最近のインターライントランスファ型CCDは、電子シャッタ機能によって蓄積時間が制御できるようになったので、フレーム蓄積とかフィールド蓄積という呼び方は適切でなくなり、フレーム読み出しとかフィールド読み出しという言い方をするようになっています。
蓄積(受光)が任意にできるようになったため、読み出しだけを定義するようになりました。
 
▲電子シャッタ(Electric Shutter)の恩恵:
電子シャッター機能は、先に「VOD(Vertical Overflow Drain)構造」で説明しました。
この機能は、計測カメラでは重要な機能でした。
この機能によって動きの速い対象物を移動ボケなく撮影できるようになりました。
ただ、この機能は読み出される直前の決められた時間分だけの露光に限られていて、任意の時間でのシャッタはできません。
従って、「フレーム読み出し」、「フィールド読み出し」の機能は、露光時間が短くなっただけで他の機能は同様に残っています。
電子シャッタ機能を使った「フレーム読み出し」では時間的に完全に分離した2枚のフィールド像が得られるようになります。
「フィールド読み出し」では垂直分解能が悪くなる反面、二つの画素(奇フィールドと偶フィールド分)が合成されますから信号成分が2倍になりS/N(Signal to Noise Ratio)のよい画像が得られるというメリットがありました。
電子シャッタは、短い露光時間に設定すると被写体によってはスミアが出る可能性がでたり、先に説明したように任意のタイミングで露光がかけられないデメリットがありましたので、これを補う形でストロボ(短時間発光光源)が使われました。
 
▲ストロボなどの外部短時間発光光源を利用した短時間露光撮影:
電子シャッタ機能が搭載されたCCDカメラであってもフレーム読み出しモードでは、2フィールド間の時間差は1/60秒あります。
また、フィールド読み出しでは1/60秒毎に短時間露光の画像が得られるものの、画質が半分になってしまいます。
こうした不具合を解決して、同時間で短時間露光を行って良好な画質(フレーム画質)を得るには、右に示すようなストロボを使った方式がベストでした。
ストロボは、1us〜20us程度で200Hz程度の強力な発光が可能でした。
このストロボを使ってCCDをフレーム蓄積モードにして、第一フィールドと第二フィールドの同時蓄積時間(1/30秒の間)内でストロボを発光させると、同一時間での全画面撮影ができます。
ストロボ撮影モードでは、カメラ側からストロボを発光させるタイミング信号を出す必要がありました。
ストロボが勝手に発光すると、第一フィールドと第二フィールドのタイミングが狂い、前のフレーム画面に第二フィールド画面が入ってしまって生き別れ画像(1/60秒ずれた画像)となってしまいます。
こうした複雑な撮影手法も、プログレッシブスキャン型CCDの登場で撮影が楽なものになりました。
 
▲プログレッシブスキャン型CCD(Progressive scan CCD)の登場:
最近では、NTSC規格に準拠しないCCD素子、つまり、デジタルスティルカメラやコンピュータ用(学術研究用、工業用)のCCDカメラが開発されるようになって、上記に述べたようなモードで撮影しなくても十分な解像力を持ち、しかも電子シャッタの効くものが市販されるようになりました。
以下に述べるプログレッシブスキャン型CCDカメラ(Megaplus ES11000)もそのうちの一つで、2005年には4,008画素 x 2,672画素、電子シャッタ機能、12ビット濃度(4096階調)という高精度の性能を持つものも市販されるようになりました。
2011年から完全移行するデジタルテレビ放送でもプログレッシブ放送が採用されています。
 
■プログレッシブスキャン型CCD(Progressive scan CCD)
インターライントランスファ型CCDは、インターレースタイプのため1/60秒毎に全画素の半分ずつを読み出す方式を取っています。
プログレッシブスキャン型は、こうしたフィールド毎の読み出しに替えて全部の画素を読み出してしまう方式です。
デジタルカメラやコンピュータ対応のカメラの出現によって、従来の放送規格(NTSC)にとらわれる必要がないためこうした素子の開発が可能になりました。
放送局以外にも大きなマーケットがあるとメーカ側が市場を呼んだ結果だと思います。
その思惑通りに、このマーケットは携帯電話内蔵のカメラやデジタルカメラ、計測用のカメラに受け入れられて行きました。
このタイプの素子は、撮像素子分の全画素を一度に取り出すことができるので静止画像での垂直方向の解像度が高くとれ、また、帯域圧縮や符号化での画像処理の際に、水平、垂直各方向の解像度のバランスが良くなるという特徴があります。
模式図を右に示します。構造はインターライントランスファ型CCD(IT-CCD)とほぼ同じですが、違いは転送部が1つの受光セルに対して3つの電極に対応していて3相による転送方式を採用していることです。
この方式の採用によって全画素を一気に垂直転送路に送り出すことができるようになりました。
シャッタ機能もインターライントランスファ型と同じように電子シャッタを切ることができ、なおかつ全画素同時期のシャッタリングが可能であるため解像度が高くて効率の良い電子シャッタを有する撮像素子となりました。
ただ、問題点もあります。
全画素を一度に読み出す関係上、受光電荷が垂直転送部や水平転送部から吐き出されるまで素子上に留まっている滞留時間が通常のIT-CCDより長くなり、スミアが出やすくなります。
SVGAタイプのプログレッシブスキャンCCDの画素では1,280 x 1,024画素あり、1,024個の電荷が一度に垂直転送部に移されます。
これを、例えば20MHzのクロックで水平転送部から読み出したとすると、全ての読み出しに65.536msかかることになります。
インターレース方式のIT-CCDでは、525本の半分の262.5本が1/60秒の間に移動しますから、プログレッシブスキャンタイプのCCDは3.93倍も長く撮像素子上にいることになります。
従ってプログレッシブスキャンCCDは、電子シャッターで短い露出時間を切るとスミアの出る可能性が通常のIT-CCDより多くなることがわかります。
プログレッシブスキャン型CCDを使う場合は、この特性を知って電子シャッタの設定や照明の選択をする必要があります。
また、デジタル一眼レフカメラの場合、4,000画素x3,000画素などのような膨大な画素を転送する場合に、その転送時間はかなり長いものになる(約1/10秒)と想像されます。
この場合、長い転送時間中に発生するスミアを防ぐため、デジタル一眼レフカメラではフォーカルプレーンシャッタで撮像素子を完全遮光してデータの転送を行っています。
そもそも、一眼レフカメラでは電子シャッタ機能を搭載していません。
それだけ複雑な機能を盛り込んで、感度を落としたり解像力を落としてもそれに見合うメリットがないからです。
フォーカルプレーンシャッタがこうした問題を解決してくれるからです。
また、CMOSタイプのもので電子シャッタ機能の無いデジタル一眼レフカメラでは、フォーカルプレーンシャッタでしかシャッタを行うことができません
 
 
■画素ずらし(pixel shift technology)  (2000.08.09)(2008.06.08追記)
カラー撮像カメラのように2枚以上の撮像素子を使用している場合、撮像素子を水平方向に1/2画素分ずらすと空間情報が補間できて水平解像度を上げることができます。
これを「画素ずらし」といいます。
インターライントランスファ型CCDは、垂直転送部やオーバーフロードレイン部が撮像素子面に配置されている関係上、受光部を撮像面上にびっしりと詰めて配列できないために飛び飛びに配置されています。
その欠点を逆手にとって他のCCDを受光部のない位置に配置し、この画素で信号を補ってやれば水平方向の画素を実質的に2倍近くに増加させることができます。
この方法によって、41万画素560TV本の性能を持つCCDを用いて800TV本近い解像度を得るようになります。
この数値は、放送規格用のテレビカメラの目安となるものです。
この性能が出れば、現行のアナログNTSC放送信号に乗せて放送できる水準となります。
CCDの1画素の大きさは、通常5〜7um程度なので素子をずらす範囲はこの半分の2.5〜3.5um程度となります。
簡単に2.5umと言いますが、この値は結構シビアな位置精度です。
それに加えてCCD 自体の寸法精度や、素子の面精度、画素精度にもかなりの性能が要求され、数ミクロンオーダーで素子を光学部品に張り合わせる技術が必要となります。
ちなみに、3板CCDカメラの場合、ダイクロイックミラーにCCD撮像素子を張り合わせる精度は、X,Y,Z軸方向がそれぞれ±0.1um、アオリの角度、回転角度(α、β、θ)がそれぞれα = β = ±7.2秒、θ = ±0.9秒が要求されます。
RGB3板カメラを使って素子をずらす場合、G(緑)の素子をずらします。
ハイビジョンカメラ(HDTV用カメラ)のように高精細度のCCD素子が作りにくい場合は、4板式カメラといって、G(緑)の素子を2つ使う(R,B,G1,G2)方式が開発されています。
また、CCD1枚を用いた画素ずらしも考え出されています。
この方法は、レンズと撮像素子の間にプリズムを置く方法や、素子を圧電素子を使ってメカ的に動かす方法が考え出されています。
この方式の場合、1画面のメモリ(フィールドメモリ)によって画像を蓄えて電子的に画像を再構築する必要がでてきます。
 
 
■ 3板CCD素子(3CCD) (2008.05.29)(2008.06.08追記)
3板CCDカメラは、カラーカメラの最も基本的なレイアウトです。
このレイアウトでは、3つのCCD素子を使ってカラー情報(R.G.B.)を得ています。
現在のビデオカメラのラインナップから見ると、3板CCDカメラは豪華な感じを受けます。
しかし、現在主流になっているカラーフィルタ式単板素子が普及する1990年頃までのカラーカメラと言えば、3板もしくは3管が一般的でした。
現在のほとんどのカラーカメラは、ベイヤーフォーマットによる1枚のCCD(カラーフィルタ式単板素子)を使っていて、1枚の素子からカラー画像を得ています。
しかし、高画質が求められる放送局のテレビカメラには、依然としてRGBによるカラー三原色画像が得られる3板CCDカメラが使われています。
 
 
 
 
 
 
 
  
 
【3色分解手法】
3つの撮像素子を使って赤(R)、緑(G)、青(B)の3波長の独立した色映像を撮る方法は、撮像管時代から行われていました。
テレビ放送がカラー化された時代からこの方式があったのです。
 
さらにさかのぼって、映画カメラに目を向けてみても、カラーフィルムが発明される1950年代までは、3本の35mm白黒フィルムをカメラのマガジンに詰めて3本のフィルムを同時に駆動させ、カメラレンズからの入射光をビームスプリッタで分けて3色分解撮影をしていました。
米国テクニカラー社(Technicolor Motion Picture Corporation、1915年設立)が開発したカラー映画撮影システムは、映画で初めてカラー上映を可能にしました。
テクニカラー社の映画は、それまでの白黒映画と区別して「総天然色」と呼ばれていました。
総天然色の「総」がついているのは、1917年に開発された最初のカラー映像は、3色ではなく2色(赤と緑)による色づけの「天然色」だったからです。
テクニカラーは、完全な天然色ですよ、という意味で「総天然色」と呼ばれました。
2色を使った「天然色」は、緑と赤を色分解して1つのフレーム内に2画面分割して撮影し、上映時に緑と赤のフィルタをかけてスクリーン上でに合成して上映していました。
今となっては変な色合いだと思いますが、曲がりなりにも色がついていたので「天然色」と名付けられていたのです。
2色などとケチくさいことを言わず3色にすれば良いと思いますが、はっきり言えば、3色に分解する技術が当時なかったのです。
現在はダイクロイックミラーという効率のよい色分解フィルタがありますが、当時はコーティング技術さえなく、ビームスプリッタは光を半分に分けることで精一杯だったのです。
テクニカラーの三色分解は、従ってビームスプリッタで分かれたアパーチャそれぞれに、「緑」と「青と赤(マゼンタ)」を透過するフィルタをつけていました。
マゼンタフィルタが付けられたアパーチャ部には、青成分と赤成分を撮影するフィルムが背中合わせになって露光されるようになっていました。
2ロール分の背中わせフィルムは波長感度の違う2種類の白黒フィルムが使われました。
それは、青に感度を持つオルソグラフィックフィルム(歴史的にみると最初にできた白黒フィルム、初期のフィルムは赤に感度がなかった)と、赤に感度を持つパンクロマチックフィルムでした。
このカメラに使われたレンズは、ビームスプリッタがレンズとフィルムの間に入るので、バックフォーカスの長いレンズが必要でした。
このために、当時、レンズ製作で有名であった英国のTaylor-Hobson社(後のCooke社)にテクニカラー用レンズの製作を依頼し、f30mm〜f140mmのレンズを取りそろえました。
広角レンズは、設計が難しかったそうです。
ビームスプリッタで分けられた光学系は当然暗くなるので撮影にはたくさんの照明が必要でした。
こうして1922年より、3色分解による本格的なカラー映画が作られ始め、「十戒」(1923)、「ベン・ハー」(1925)に使われました。
究極の作品は、ディズニーアニメーションの「白雪姫」(1937年)、「オズの魔法使い」(1939年)、「風と共に去りぬ」(1939年)で、これらの作品はカラー映画のすばらしさを決定づけました。
全盛期のテクニカラー映画は、作風もさることながらカラー描写の見事さによって歴史に残るヒット作となりました。
ちなみに、テクニカラーは、1950年にKodak社が開発した35mmカラーネガティブフィルムの登場によって(1本のフィルムで3色分解された画像を記録できるため撮影とプリントが楽になり)衰退の一途をたどり、1950年代後半にはKodakカラーフィルムその座を明け渡してしまいました。
テクニカラー映画は、撮影と現像にたくさんの労力とお金がかかりました。
カメラが大きく、色分解をするので照明がたくさん必要で取り回しが大変でした。
コダカラーは、その点取り回しが格段に楽だったのです。
テクニカラーの衰退と共に、「総天然色」という名前も色あせて、「カラー」が日本語の市民権を得るようになりました。
 
撮像管の時代のカラーカメラと言えば、下の図に示したような三色分解の光学系に3つの撮像管をつけたものが一般的でした。
カラーテレビ放送は、米国で1953年に始まります。
日本では1960年に始まりますが、家庭にカラー受像機が普及して本格的になるのは1970年頃だと記憶しています。
当時(1960年〜1990年)のカラーテレビカメラは、一つの撮像管でカラー情報を得ることが困難な時代でした。
CCDカメラの時代になってもカラーカメラの3色分解手法は踏襲され、3板CCDは高級カラーカメラの代名詞として使われていました。
【ダイクロイックプリズムの機能】
3板CCDカメラに代表される3原色分解の光学系は、先にその構造を示しました。
複雑な形状をした3個のプリズムと多層膜コーティングを施したダイクロイックプリズム(dichroic prism)によって、光を効率よく波長別に分解しています。
このプリズムは、プリズムの合わせ面にダイクロイックミラーを用いています。
ダイクロイックミラーは、フッ化マグネシウムや酸化シリコン、酸化チタン、硫化亜鉛などの薄膜で光の干渉作用を利用して希望する波長を透過・反射するものです。
メガネのコーティングやレンズのコーティング面を見ると、うっすらと紫や緑などの反射光が認められると思いますが、そうした蒸着による薄膜生成を幾重(20層〜30層)にも重ねて光の波長レベルの薄さの層を形成すると、光の吸収損失を低く抑えて希望する波長を反射させ残りの光(補色)を透過させるようになります。
プリズムは、波長選択された光を全反射によって希望する素子に到達させる働きを持ちます。
一般的なダイクロイックプリズムを使ったカメラ光学素子は、初段のプリズム貼り合わせ面で青色を反射し、残った緑と赤成分のうち赤色成分を2段目のプリズム面で反射させます。
素子の前にトリミングフィルタを入れるのは、さらに波長選択を良くした光を撮像素子に入れるためです。
プリズムの材質には、双眼鏡で使われている光学ガラス(BK7)が使われ、各プリズムの光学パスが等しくなるように設計されています。
プリズムの製作はかなり難しいものだと言われています。
それに加え、ダイクロイックミラーの蒸着、CCD素子の貼り合わせなどすべての工程において、サブミクロン領域の製作・組み立て精度が要求されます。
1枚の撮像素子でカラー画像を得る方式よりも遙かにコストがかかることが理解できます。
3板CCDカメラは、現在一般的になっている単板式カラーフィルタ式CCDカメラとどのような違いがあるのでしょうか。
その特徴を以下に示します。
 
【利点】
1. 偽色(color artifact)が起きない非常に精度よく配置された撮像素子においては、
   1画素の色情報を忠実に拾うことができるので、2x2画素(4画素)もしくは3x3画素(9画素)に
    渡って色情報を集める単板式カラーフィルタCCDに比べて原理的に色のにじみとボケがない。
2. 解像力が高い。
   3つのCCD素子を使っているので、精度良く光学系が組み上がって正しい貼り合わせができていれば
   解像力の高い画像を得ることが可能。
   画素ずらしという手法を使うと解像力が2倍にアップ。
3. 感度が高い。
   ダイクロイックプリズムにより希望する波長成分のほとんどを撮像素子に送ることができる。
    単板カラーフィルタCCDは、構造上1/3以下の光しか光を受光できない。
 
【欠点】
4. 製造に高度の技術が必要。
    プリズムの製造、ダイクロイックフィルタの製造、貼り合わに高度の技術が必要。
   高価になる。
5. カメラサイズが大きくなる。
    3つの撮像素子を利用し、ダイクロイックプリズムを内蔵するので大きくなる。
6. カメラレンズにダイクロイックプリズムに対応したものが必要。
   フランジバックの長い専用レンズ。及び色補正の考慮されたもの。
7. 高価。
 
こうした理由により、現在のところ3板CCDカメラは放送局用や顕微鏡などの計測分野での使用がメインとなり、高速度カメラなどの計測カメラを含めデジタル一眼レフカメラでは、カラーフィルタ式単板素子が使われるようになっています。
 
■カラーフィルタ方式CCD素子( Bayer Filter, Color Filter Array)
カラーカメラのオーソドックスなものは、上に述べた3板CCDカメラです。
これは、RGBの三原色にそれぞれCCDカメラを置いて、3つのCCDカメラで色情報を採取してカラー画像を合成する手法です。
3板CCDカメラは、素子を3つ用いて、これをダイクロイックミラーと呼ばれる三色分解光学系にくっつけて作られるカメラですから、価格も当然高いものになります。
よりシンプルな撮像素子でカラー撮影を可能にしたのが、1枚のCCD素子上にマトリクス状のカラーフィルタを張り合わせたものです。
各画素には一つのカラーフィルタが割り当てられていて、相互に色情報を補い合ってマトリクス計算により各画素の色を特定するという方式をとっています。
これは、BAYERフォーマットと呼ばれているものです。
このベイヤーフォーマットは、1960年代Kodak研究所にいたBayer博士が考案し、特許を取得したフィルタ処理によるRGBカラー画像構築手法です(Bryce E. Bayer、登録番号:3971065[1976年7月20日]、題目:Color Imaging Array、出願者Eastman Kodak)。
この方式は、CCDカメラ用ではなく、銀塩カラーフィルム開発の一環で考案されたようです(1960年代は、CCDカメラもなければテレビ撮像管も発展途上にあり、カラーカメラは3管式が主流でした)。
しかし、フィルム感光材料の分野では、フィルム面上に三層の感光膜(シアン、イエロー、マゼンタ層)を塗布する技術が確立したため、Bayer氏が考案したフィルタアレイは写真の分野からはなくなりました。
Bayer博士の考案したRGB方式のカラー撮影手法は、1993年にパテントが切れたために日本のデジタルカメラメーカがこぞって採用をはじめ一般的になりました。
Bayer氏が考案したアレー状カラーフィルタ方式は、R.G.Bの市松模様を基本原理としていましたが、テレビカメラに使うには、つまり、インターレース方式のカメラに採用するにはいろいろな問題点がありました。
このタイプのCCD素子は、インターレース方式を使わないデジタルカメラによって最終的に脚光を浴びるようになります。
インターレース方式のCCDは2フィールドで画面を構成するために、上に示したようなアレイではフィールド間に入ってしまい、色を作る際に1/60秒の時間的ズレがあったりで都合の悪いものでした。
また、R.G.B.方式のカラーフィルタは色再現性が優れているものの、光の分離が効率よくなく(白色光の1/3しか各フィルタに入らないため)、低感度という問題を抱えていました。
 
感度の点では補色フィルタ方式(シアン、イエロー、マゼンタ、それに輝度信号を得るためのグリーンフィルタを用いた方式)の方が効率のよいカラー画像が得られました。
1983年、松下電器は、インターラインCCD用のカラーフィルタを用いてフィールド単位でカラー画像が得られるシステムを提案しました。
Bayerフォーマットの特許が切れた今日では、発色性の良いBayerフォーマットが単板式のビデオカメラの主流になっています。
上右図にBayer式カラーフィルタの原理を示します。基本的なレイアウトは、素子の左上が赤のフィルタで始まることです。
色情報は、4つの画素に囲まれた真ん中に仮想の画素を設けます。
仮想画素のまわりの4つの実際のフィルタ付き画素は、緑(G=Green)の画素2つと赤(R=Red)、青(B=Blue)の画素それぞれ1つで構成されます。
緑の占める割合が多いことがわかります。
これは人間の視感度が緑に対して効率が良いためCCDフィルタも余分に光を与えてバランスを取っているためです。
図の仮想画素Pxに注目してみましょう。
Pxのカラー情報は、近傍の画素のカラー情報からマトリクス計算によって得られるのですが、
 
緑(G)は、近傍のG7とG10を足して2で割る。
赤(R)は、R11を優先してその周りの赤色情報も加味する。
青(B)も赤と同様の処理をする。
 
という形で任意のセルの色を特定していきます。式で表すと以下のようになります。
 
P green = (G7 + G10)/2  ・・・(Rec -6)
 
P red = (9・R11 + 3・R3 + 3・R9 + R1)/16  ・・・(Rec -7)
 
P blue = (9・B6 + 3・B8 + 3・B14 + B16)/16  ・・・(Rec -8)
 
 
この手法が本当に現実の色を再現しているかどうかは議論のあるところですが、簡単に彩色できるという画期的な方法ではあります。
現在のデジタルカメラは、ほとんどすべてこの方法によっています。
 
 
■ モアレと光学ローパスフィルタ(Moire, Optical Low Pass Filter)  (2008.05.09)(2008.05.14追記)
個体撮像素子の画像に現れる特徴の一つにモアレ画像があります。
非常にきめの細かい対象物を写したときに、細かい対象物のピッチが撮像素子の画素ピッチと干渉し、本来の画像とは異なる濃淡画像が現れます。
これをモアレ画像と呼んでいます。
テレビなどで、キメの細かいネクタイや、窓のブラインド、チェックのシャツなどが映し出されると色がにじんだり濃淡が変化して見えることがあります。
これがモアレ画像です。
モアレ画像は、見た目に見苦しいばかりでなく、間違った情報を与えるのでこれを除去することが大きな課題となっていました。
ただ、モアレ対策が熱心であったのは、放送業界やデジタル一眼レフカメラに代表される画像品質にうるさいマーケットであり、計測分野ではこうした対策をたてているカメラは多くは見かけません。
なぜ、そうした傾向があるのかはさだかではありませんが、計測用のカメラは画像にあまり作為的な処理をしたくないという要求があるように思えます。
画像処理は、目的に応じて個別に行なわないと希望する情報が消されてしまい、撮影側に知らされずに化粧された画像が作られてしまう懸念があります。
計測カメラを使う研究者たちはそれを嫌います。
撮影側に問題があってもそれを熟知して対応したほうが、計測機器として信頼して使えるからです。
新しい概念で作られた3層CMOS固体撮像素子(米国Foveon社のX3、SIGMA社のデジタル一眼レフカメラに搭載)では、素子の構造上光学ローパスフィルタは必要ない、として取り付けてないカメラもあります。
 
モアレ画像を除去する方法は、以下の4種類があります。現在の所、1.の水晶板を使った方法が一般的です。
 
1. 水晶板を使う方法 - 結晶硝子の複屈折を利用して、高周波成分を鈍らせ干渉を起こしにくくする。水晶板の厚さによって、鈍らせる周波数を変えられる。
2. レンチキュラを使う方法 - かまぼこ型円筒レンズを多数平行に配列して配置。
3. 位相フィルタを使う方法 - 位相を変える透明薄膜をストライプ状に形成。
4. クリスチャンセンフィルタを使う方法 - 特定の波長に対し、散乱する物質を液体中に分散
 
■ 水晶板ローパスフィルタ
CCDなどの固体撮像素子に用いられるモアレ画像対策では、水晶による結晶板で作られたローパスフィルタ(Low Pass Filter)を撮像素子面の前に取り付ける方法が最も一般的です。
水晶結晶板を使ったローパスフィルタは、撮像素子のピッチの2倍以下の成分( = 2画素分以下)の情報をカットします。
カットすると言うと何となくシャープな感じを与えますが、実を言うとボカしているのです。
結果的に高周波数成分を通過させない(霧散させてしまう)ことになります。
このフィルタは、たとえば、12um x 12um の画素を持つ素子であれば、素子上に投影される画像情報の24um以下のものを通過させない機能を持ちます。
一般的に考えると、カメラで得られる情報は、撮像素子の大きさまで記録されると考えがちですが、モアレ対策のためにローパスフィルタを組み込んだ固体撮像素子では、画サイズの倍の大きさ以上の解像力しか持ちえないことになります。
簡単に言えば、像の錯乱円を光学フィルタによって2画素x2画素(4画素)程度に決めてしまう方法です。
素子の1画素が12umx12umであれば、φ34umの許容錯乱円にすることになります。
光学ローパスフィルタは、「牛の角を矯める」やり方と似ていますので、選択を間違えるとやけに惚けた画像になってしまうことがあります。
要するに、水晶板によるローパスフィルタ効果は、フォーカスを少し甘くしてモアレが出なくするということです。
水晶板は、方解石などと同じように複屈折効果を持っていて、これに入射する光は常光線(ordinary ray)と異常光線(extraordinary ray)に分かれます。
この2線は、結晶構造の光軸に対してある角度(水晶の場合、44.83°)を持たせて光を入射させた場合に最も分離(d)が大きく現れます。
2つに別れた光は、結晶板中を通過していくので、結晶板が厚ければそれだけ分離巾が大きくなります。
結晶板の厚さ(t)と2線の分離巾(d)の関係は以下の式で近似されます。
 
d ≒ t・(ne2 - no2)/(2・no・ne)    ・・・(Rec -9)
 
   d: 2線(水晶板中の常光線と異常光線)の分離巾
   t: 水晶板の厚さ
   ne: 常光線の屈折率(λ= 589.3nmの時1.5534)
   no: 異常光線の屈折率(λ= 589.3nmの時1.5443)
 
この式から、画素ピッチ分の分離巾(d)を得る水晶板の厚さを割り出すことができます。
画素ピッチは、6umから12umが多いので、上の式を用いてこれらの素子に使われる水晶板の厚さを求めると1mm〜2mmになることがわかります。
実際の光学ローパスフィルタは、3枚の水晶板を張り合わせて使用されています。
なぜ三枚使用するかというと、一枚の水晶板だけでは1方向の周波数成分しかカットできないため、2成分(縦方向と横方向)の高周波成分をカットするためには2枚の水晶板が必要になるからです。
ただ単に2枚を重ね合わせても、1枚目の水晶板を透過した複屈折光線は偏光がかかっているので、そのまま水晶板を重ねても効果がありません。
偏光がかかった光線を一旦もどして(円偏光にして)2枚目の水晶板にいれるために、偏光を変える1/4波長水晶板を2枚のローパスフィルタの間に入れます。
このようにして、固体撮像素子の光学ローパスフィルタは構成されています。
実際の光学フィルタは、右図に示したように、赤外/紫外カットや反射防止を考慮した複数枚の光学ガラスとフィルムを張り合わせてできています。
 
 
■ 偽色(ぎしょく、color artifact) (2008.11.29)
ベイヤーフォーマットを使った単板撮像素子では、前述のモアレとともに色ズレの問題が発生します。
この色ズレは、偽色(ぎしょく)と呼ばれています。
ベイヤー方式(モザイクフィルタ方式)では、色の決定に4画素もしくは9画素を使うために、非常に細かい画像パターンが撮像素子に入ると、正確な色が特定できずに誤った色が発生します。
つまり、偽色は、明るくて細かい画像や、明るい対象物の輪郭部分に本来の色ではない色が現れることを言います。
偽色は、モアレ同様、ローパスフィルタを用いることにより緩和され、自然な色が作られます。
当然、解像力は物理的画素数の半分以下になります。
 
なお、日本のWebサイトの多くに、偽色をfalse color(フォールスカラー)とあてているのを見かけますが、これは間違いです。
False Colorは、本来、別の意味があり、日本語では擬似カラーと訳されているものです。
False Colorは、米国コダックが、1960年代に赤外カラーフィルム(Kodak Ektachrome Infrared Aero Film, Type 8443)を開発してから使われるようになった言葉で、この時代から急速に普及しました。
False Color は、モザイク画像のCCDよりもずっと前にできている言葉です。
しかも、その言葉の意味は、CCDで起きる偽色とは全く異なったものです。
赤外カラーフィルムは、赤外領域(700nm〜900nm)に感度を持ったフィルムで、人間の目には見えない赤外部を赤色にあててカラー写真を得るものです。
従って、本来人間の見える色(true color)とは異なった発色画像となっています。
赤外写真は、本来軍需用に開発が進められ、1910年代の第一次世界大戦から出発しました。
もちろんその当時は白黒写真でした。
擬似カラー写真は、ベトナム戦争でゲリラが原野や山林に偽装して潜伏しているのを発見するために、これを行う航空写真撮影に多様されました。
木々の葉や草は、活性が良いと赤外線を多く反射するので、擬似カラー写真で見ると真っ赤に見えます。偽装されたアジトは、赤く写りません。
こうしたことから、擬似カラー写真は、航空機や衛星から地上や海域を探査するツールとして、リモートセンシング分野でよく使われるようになりました。
今述べたことから、False Colorは、CCDの画素による偽色とは似ても似つかない性質のものであることが理解できましょう。
CCDやCMOSを扱う米国の専門家たちは、従って、素子の偽色のことを Color artifact と呼んでいます。
同じような言葉に pseudo color(スードカラー)があります。
この言葉は、白黒画像を濃度に応じて加色する場合に使う言葉です。
画像処理分野でよく使われています。
 
 
■ 三層カラーCMOS素子(Foveon X3 CMOS) (2008.05.15)(2008.05.17追記)
多くのカラーカメラが、先に紹介したBayerフォーマットのマトリクスフィルタによる単板素子を使っているのに対し、カラーフィルムの構造と似たような3層(R、G、B)縦配列(垂直配列)による受光素子を作ったメーカがあります。
そのメーカは、Foveon(フォビオン)(米国カルフォルニア州、1997年創設)と呼ばれる会社で、2002年にこの素子を開発しました。
この素子は、日本のレンズ・カメラメーカのSIGMAで採用されて、SD9カメラ(現在、2008年は、SD14)に搭載されています。
この素子はCMOSであり、CCDではありません。
本来ならば、CMOS素子の項目で説明すべきものですが、固体撮像素子のカラー撮影という関係でこの位置で説明します。
CMOS素子については、「撮像素子 - - -CMOS(Complementary Metal Oxide Semiconductor)素子」を参照ください。
Foveon X3 素子は、高精細のデジタル(一眼レフ)カメラ用として開発されたようです。
この素子は、実にユニークです。
一般的な Bayer 方式の単板撮像素子は、2次元状に広がった画素単位の色情報をかき集めて色を構成するので、1画素単位で変わる細かい色情報に関しては色を正確に特定することができず、偽色(color artifact)が発生します。
三層縦構造カラー素子のFoveon X3は、原理上そうした不具合が起きません。
一画素で色が決定されるからです。
Foveon社の開発した素子は、1つの画素から直接色情報を得るので、周辺の画素から色情報をかき集めて処理を行うBayer素子と区別させるために Direct Image Sensorと呼ばせています。
Bayer素子では2画素〜4画素の色情報(空間的には4画素〜9画素の範囲)から色を特定するので、その間で変化してしまう色に対しては手の施しようがなく、光学ローパスフィルタによってその弊害を抑えることになります。
これに対し、3層縦構造のカラー素子ではこと色情報に関してはフィルタを入れる必要がありません。
Foveon X3素子は、光学ローパスフィルタ装着の必要性がないとメーカが主張しているのに対し、識者の間で少しばかりの論議が続いています。
というのは、ナイキストの考えによると固体撮像素子で量子化された情報は、2画素以下の高い信号周波数については偽信号(エイリアシング)が発生することは自明だからです。
おそらく、Foveon X3素子を使ったカメラでは、画像を構築する際に色信号に対してはほぼ問題ないとしても輝度信号に対しては画像処理( = グラフィックエンジン)によってアンチエイリアシング処理(偽信号を除去すること)を行っているはずです。
偽信号処理を行うにあたり、色情報と輝度情報の2つを考慮しなければならないBayerフォーマットの素子に比べて、Foveon X3では色情報については原理的に補正しなくて良いわけですから補正もやりやすいのだろうと思います。
確かにFoveon X3で撮影されたサンプル画像を見ると、髪の毛の表現や砂地状の地肌がきれいに再現されています。
Foveon X3 素子の構造は、シリコン半導体の波長透過特性を巧みに使っています。
つまり、シリコン半導体の膜厚の深さによって吸収する波長が変わることを利用して、膜厚の薄い表面近辺(0.2um厚)では青色の吸収が多いのでここを青色検知層とし、一番深い所まで届く赤色に関しては、最下層(2um厚)で赤色を検知しています。
一つの半導体の薄膜とサブミクロンオーダの信号取り出し口の生成技術で3つの色を取得しているのです。
この方法は、フィルムのカラー感度層構造と似ていると言われていますが、厳密に言うと違います。
銀塩フィルムの3色感度層は、【光の記録原理 その3 - - - 2次元記録(銀塩フィルム)3原色感度層】で述べているように、各層にはカラーセパレーション用のフィルタが入っています。
これに対して、この撮像素子では R.G.B三色の明確な分離はなく、シリコン半導体の膜厚だけを頼りに3色の色情報を得ています。
シリコン半導体は、厚さ方向に対して波長の透過性能が変わり、浅い位置で短い波長成分が吸収され、深い部分で長い波長成分を吸収する。この性質を利用して、Foveon X3素子は、受光部の厚さ方向で3波長の色情報を取り出している。
参考:Richard F. Lyon, Paul M. Hubel, Foveon, Inc. ,"Eyeing the Camera: into the Next Century", 2003 Bayer素子が平面的に色情報を収集するのに対し、Foveonは垂直に色情報を収集する。従って、Foveonは色のにじみがない。
 
2008年5月現在の Foveon X3 素子は、2,268画素x1,512画素(9.12um画素サイズ、20.17mmx13.8mm素子サイズ)のものが販売されています。
この素子の窓数は、3.43M(343万個)ですが、Foveon社は、1つの窓にR.G.B.の3種類の信号が取り出せることを根拠に、画素数を窓数の3倍である10.3M画素(相当)であるとしています。
Bayerフォーマットの撮像素子が、光学ローパスフィルタを入れているにもかかわらず物理的な素子の数でカタログをにぎわしていて、画素数が多いのが高性能であるという風潮にしているので、それならば我々の素子は3倍の画素換算にしますよ、と言っている感じを受けます。
客観的に見ると、3板固体撮像素子のような扱いで良いように感じます。
このタイプの素子は、一眼レフデジタルカメラで市販化されてかなりの評価を得ているようです。
しかし、計測カメラ用としてはあまり使われていません。
このFoveon X3のシャッタは、ローリングシャッタという電子シャッタを内蔵しており、インターライントランスファ型CCDのような全画素同時の電子シャッタではないために、計測用としては使いづらいかも知れません。
感度についても格段に優れているようには紹介されていません。
詳しいことはわかりませんが、受光部での量子効率があまりよくないのかもしれません。
想定される理由として、青色検出領域であるシリコンの浅い部分では、他の色成分も検出してしまうので、最終の赤色部分の色情報を得て逆算するような方式になっているそうです。
それが影響しているのかも知れません。
 
 
 
■ QE(Quantum Efficiency、量子効率) (2003.09.06)(2008.06.08追記)
計測用CCDカタログを見ると、カメラの感度を示す指標としてQE(量子効率)という説明が見受けられます。
QEというのはどういうものなのでしょうか。
この言葉は、おそらく一般のビデオカメラのカタログには登場しない単語だと思います。
この単語は、フォトン(光子)を扱うような微弱光領域でカメラを使用する場合に、カメラの感度性能の一つの目安になるものです。
ですから、この領域に使うカメラの性能表にはよく登場します。
 
QEは、Quantum Efficiencyの略です。Quantumは物理学用語で「量子」を表します。
量子はエネルギの単位であり、エネルギの塊を示すものです。
自然界は連続的な物理量を持っていると思いがちですが、原子レベルでのエネルギー量を見てみると一つ一つの塊となっていることがわかっています。
光子(フォトン)」は、光エネルギーの塊です。
量子は電子の振る舞いから体系づけられた学問で、量子エネルギは原子を取り巻いている電子がその準位を換えることで、放出がおきたり吸収が起きることがわかっています。
電子は原子の回りをある準位で回っていて、その準位は軌道と呼ばれている値をとるため、勝手に運動することはできません。
ちょうど太陽系を回っている惑星が一定の軌道で周回し、任意に距離や周回速度を選ぶことができないのと似ています。
太陽系の惑星の場合は、惑星の質量と太陽の質量の互いの引力によって互いの距離と周回速度が求まります。
原子の場合には、電子の電荷と原子核の電荷によって電気的に位置が決められます。
これはボーア(Niels Henrik David Bohr:1885.10〜1962.11、デンマークの物理学者。1922年ノーベル物理学賞授受) が考えた理論で、電子は原子核の回りを一定の軌道で回り、外部からエネルギを受けると一つ外の軌道に移り、また、エネルギーを放出するときは内側の軌道に移るというものです。
軌道が決まっているので電子が放出するエネルギーは不連続の値、つまり、塊として成立するようになります。
光子の場合には、先にも述べましたように、以下の式になります。
 
E = hν  ・・・(前述)
 
   E:光のエネルギー(J)
  h:プランク定数、 6.6260755 x 10-34 J・s
  ν:光の周波数 = c/λ
  c:光速、299792.458 km/s (真空中)
固体撮像素子で述べているQEは、
『光子が1個到来したときに、その光子が1個分の電子または正孔が信号出力に寄与したとき1(100%)と定義する。』
というものです。
すなわち、上で述べた光子1個が固体撮像素子のセルに入射したとき、1個の電荷が発生してそれが信号出力として寄与すれば量子効率100%となるというものです。
実際には、予め出力エネルギのよくわかった単色光を固体撮像素子に照射し、そこから得られる発生電流を測定して量子効率を求めます。
式で表すと以下のようになります。
波長λ[nm]の光が毎秒W[W]のエネルギで固体撮像素子に入射したとすると、その時の光子の数Np[個]は、
 
Np = W/Ep = W・λ/h c  ・・・(Rec -10)
 
   Np : 入射する光子の数
   W: 入射する光のエネルギー
   Ep:入射する光子1個のエネルギー
   λ: 入射する光子の波長
   h : プランク定数
   c: 光速度
 
となります。
電子1個の電荷はe[クーロン]あり、一秒間に流れた電荷量で電流[A = アンペア]が求まるので、量子効率1(100%)での発生電流は、以下の式となります。
 
Ip = e Np  ・・・(Rec -11)
 
   Ip : 量子効率100%での発生電流(A、アンペア)
   e: 電荷(クーロン)
   Np :入射する光子の数
 
 
この理論的な効率100%での電流値と実際に計測した電流 Ic の比を取ってやれば量子効率が求まります。
 
η = Ic / Ip = Nc / Np = 1240 x Ic /(W・λ)  ・・・(Rec -12)
 
   η:量子効率 QE
   Ic:測定電流
   W:入射する光のエネルギ
   λ:入射する光の波長
 
上式を元に、量子効率ηを1とした時、入射エネルギWに対する出力電流の比、すなわち感度は以下の式で表されます。
 
Sη=1 = Ic / W = λ / 1240  ・・・(Rec -13)
 
Sη=1 は、分光感度で、単位は、[A/W]で表されます。
値が小さいので、[μA/μW]で表すこともあります。
1240という値は、光と電子を扱う世界では重要な数値です。
発光ダイオードも半導体レーザも、X線発生も電圧と光の波長の関係式にこの値が出てきます。
この数値は、h c/eによって求まる値です。
上式を見ると、感度は波長が長いほど入射エネルギに対する出力電流が高いことになります。
多くの固体撮像素子では、ηを100%、50%、30%、10%についてプロットし、これに実際の素子の感度を重ね合わせて図にまとめ上げています。
 
■ ショットノイズ(shot noise)、フォトンノイズ(photon noise)  (2006.07.13)(2008.06.08追記)
微弱な光を扱っている時に、無視できなくなる光ノイズを、ショットノイズとか、フォトンノイズと言っています。
ショットノイズは、電子などのノイズを言及するときに使われる言葉で、これに対しフォトンノイズは、光に関するショットノイズを指すときに使われる言葉です。
揺らぎとも言っています。
 
光(フォトン)は、いつも一定の割合で電子と相互関係を持つかと言うとそうはなりません。
100個のフォトンが入ってきても、100個の光電子が発生するとは限らず、時に50個であったり10個であったりします。
これが長い時間で見た場合には平均化されて落ち着くわけですが、短時間でとらえるとかなりのバラツキが生じます。
これが画像としてとらえられると、雪が降っているような、あるいは星が瞬いているように見えます。
ショットノイズは、超高感度カメラを使って、比較的短時間の露光で画像をとらえる時に目立ちます。高感度カメラは、検知する光子数が少ないのでこうした現象が顕著に現れます。
フォトンノイズの考え方は、ちょうど地上に降り注ぐ雨粒になぞらえられます。
シトシトと雨が降っている中に大きさ10cm程度のコップを置きます。
コップに雨水をためるとき、例えば10秒間で雨粒を受けたとすると、おそらく何回測っても、また数カ所で同時に同じ計測をしても量が変わるでしょう。
10秒という短い時間では雨粒が数個であったり数十個であったりします。
しかし、これを1時間程度受けたとすれば、ばらついて降り注ぐ雨粒が平均化されて、数カ所同時に測っても同じような量を計測できます。
 
フォトンというのはこのような雨粒に似たようなものと考えるとわかりが良いかと思います。
ショットノイズは、光子だけでなく熱電子や光電子の振る舞いにも現れます。
ショットノイズは、基本的に入射する光子数の平方根に比例します。
 
Sn ∝ √S  ・・・(Rec -14)
Sn: ショットノイズ
S: 入射する光子数
 
上の式は、例えば、100個の光子が入射すると10個の光子は絶えず揺らぎとして認められることを示しています。
これは10%に相当します。これが1,000,000個の光子になると揺らぎは1,000個となりノイズの占める割合は0.1%となります。
従って、フォトンノイズを抑えるには、受光に十分な光子を蓄える手だて(時間)の考慮が必要です。
降り注ぐ光子は、雨粒のようにランダムに放射していることを理解する必要があります。
 
■ 光子の読み出しノイズ  (2007.11.18)
光子を検出するには、電子に変換させる必要があります。
すべての計測には誤差やノイズがつきまといますが、光子をフォトマルやフォトダイオード、CCDカメラで計測する場合ノイズ成分は以下の関係式で示されるように各要素から発せられます。
 

N ∝ √(Nr2 + Nd2 + Ns2 )  ・・・(Rec -15)

N: 総合読み出しノイズ
Nr: 回路素子から発するノイズ
Nd: 受光素子から発する暗電流 = D * T
   D:暗電流(electron/pixel/sec)
   T:検出時間(sec)
Ns: 光電子によるショットノイズ = √S
      S:光電子 = QE x 入射光子数
 
こうした各要素から発せられるノイズを抑えて、希望する光子信号を取り出すことがCCDカメラを含む光電素子製品設計の重要課題となっています。
上の式からわかるように、光電素子のノイズはショットノイズだけは避けて通る事ができないので、許す限りの測定時間を長く取って揺らぎ成分を少なくする事が求められます。
しかし、必要以上に測定時間(露光時間)を長くすると、発光素子から発する暗電流Nd成分が多くなってしまいます。
長時間露光では、このNdを抑えるために光電素子を電子冷却によって暗電流の発生を抑えています。
 
 
■ ビンニング(Binning)  (2008.05.15)
ビンニングとは、画素を複数個集めて1つの画素とみなす画像の取り込み方式です。
計測用CCD(もしくはCMOS)カメラで良く使われる手法です。
ビデオカメラでは、映像信号が厳しく規定されていて、自由な読み出しができないので使われません。
ただし、上で説明した「フィールド読み出し」では、垂直2画素分を1画素として読み出すので、1x2画素のビンニングと言えなくもありません。
 
計測カメラで使われるビンニングは、2x2、3x3、4x4などが一般的で、2x2=4画素、3x3=9画素、4x4=16画素分を1画素とみなして画像が構成されます。
複数の画素から1画素を構成する場合、受光するバケツ容量が大きくなるのと同じ効果を持つのでたくさんの光を受けることができます。
1画素分が大きい撮像素子を仮想的に作ることができます。
1画素の大きさが大きくなると、感度が良くなるために微弱な光を検出する場合に使われることがあります。
また、この機能では、副次的にノイズ成分も低減します。
反対に、ビンニングを施すと画面を構成する総画素数が少なくなります。
たとえば、640x480画素の撮像素子に2x2のビンニングを施すと、感度は4倍になる反面、構成画素は、320x240画素と少なくなります。
読み出し画素数が少なくなるため相対的に読み出し速度が速くなる(1秒あたりの読み出し枚数が多くなる)メリットもあります。  
  
 
計測CCDカメラメーカの先駆 - VIDEK(ばいでっく)社 (2006.09.21)(2007.01.08)(2020.02.20)(2023.12.03追記)
 
CCDカメラを計測用装置として製品化したのは、米国のKodakの子会社Videk社が最初と記憶しています。
Videk社は1987年に右下に示すようなコンパクトなCCDカメラを市販化しました。
1987年当時はCCD素子が8mmビデオに搭載されるようになった時代で、CCD素子がアナログビデオ信号による画像品質(720画素x480画素相当)になんとか追いついた時代でした。
そうした時期に、産業用カメラ分野において1320x1035画素(1.4メガ画素)を持つCCDタイプのデジタルカメラが開発され市販化されたのです。
当時、メガピクセルなどというCCD素子は、とてつもない画素を持った撮像素子でした。
640x480素子のチップを作るのでさえ画素欠陥が多くて歩留まりが悪かったのに、その4.5倍もの画素数を持つチップ製造は大変なものだったろうと想像します
1880年代当時、天文分野や分光分析分野では撮像素子を液体窒素で冷やした百万画素のCCDカメラは使われ出していましたが、それはとても高価なもので生産数も極端に少ないものでした。(宇宙望遠鏡Hubbleは、この時代にCCD素子を搭載しています。)
従って、高画素CCD素子は産業向けの機器としての市販化などまだ先のことように考えられていたのです。
このカメラの名前は、メガピクセル(100万画素)を凌いだカメラということから「メガプラス(Megaplus)」と呼ばれました。
このカメラはその後、1990年代の計測用分野で固体撮像素子カメラの牽引役を果たしました。
当時、CCD撮像素子はテレビカメラ用として大量生産を始めていました。
従って、映像の読み出しは当然アナログ信号(デジタルではない)であり、NTSC(もしくはPAL)に準拠したものでした。
そのカメラは放送規格に準拠していましたから、1画素の大きさも現在のように計測に便利な正方格子の四角いサイズではなく、4:3の縦長のものが一般的でした。
しかし、Videk社のカメラは1画素が6.8um x 6.8umと正方格子で、しかも、アナログ信号ではなくデジタル信号として取り出せるカメラでした。
明らかに計測目的を意識して開発されたものでした。
バイデック社のメガプラスはとてもコンパクトに仕上がっており、業界で大変な評判を呼びました。
右の写真を見ればわかるようにとてもコンパクトです。(レンズはNikkorレンズです。)
以後、計測分野では、このカメラが数多く採用されました。
しかし残念なことに、このカメラは当時以下の問題点を抱えていました。この時代の電子技術の状況がよくわかる事柄でもあります。
 
 
1. 開発されたカメラは読み出すまでの機能しかなく、画像の取り込みには別途処理装置が必要で、
  さもなくば画像 取り込みボードを組み込んだパソコンが必要であった。
  当時のパソコンは、MS-DOS + ISAバスなので、性能はよくなかった。
  ISAバス規格は、16MB/s@8bit、8MHzであった。
  メガピクセル(100万画素)の画像を取り込むのに時間がかかった。
2. カメラを駆動する電源部が別途必要であり、カメラは複数の電圧源が必要であったので、
  そのDC電源を作る電源部は専用となり、しかも大型(7kg)であった。
3. トリガタイミングが任意に取れず、欲しいマイクロ秒単位でのタイミングの画像がとれなかった。
  カメラ主導でのタイミング撮影は可能であったが、現象優先の撮影は不可能であった。
4. カメラにはメカニカルシャッタが内蔵され、露出時間はメカニカルシャッタに依存し、
  最小1/1000秒程度であった。また画像の転送は、メカシャッタを閉じてから行った。
  理由は、CCD素子がフルフレームトランスファタイプであり、電子シャッタ機能がなかったためである。
5. 従って、取り込みは最大で5コマ/秒程度であった。メカニカルシャッターは都度開閉を行った。
6. 画像の取り込みは、サードパーティの画像ボードメーカに依存した。バイデック社(コダック社)は
  カメラ単体の販売に終始したので、画像ボードメーカがシステムを構築したり、ユーザがシステムを構築した。  
こうした問題がありながらも、メガピクセルの映像はとても精緻で、1980年代の終わりに発売されたこのカメラの画像を見たとき、フィルム画像の時代ももうすぐ終わりなのかな、と思いました。
当然このカメラは白黒で、カラーカメラはありませんでした。
当時、コンピュータの性能といえば、OSがMS-DOSであり、メモリも高価で(4MBのRAMを搭載するのがやっとだった)、HDDの容量が小さく(100MB程度が大容量だった)、データ保存は1.4MB容量の3.5インチフロッピーディスクを使うのが主流でした。
1980年代は、データ用CDも、ましてやDVDもありませんでした。
それに、なによりも、メガピクセルクラスの画像を表示させるモニタが普及していませんでした。
真空管技術を用いたブラウン管(CRT = Cathode Ray Tube)が主流で液晶テレビはまだ産声を上げたばかりでした。
当時、テレビと言えばNTSC のビデオ信号の受信(帯域 6MHz)が中心だったので、縦方向525本(横方向480TVライン)もあれば十分でした(「NTSCの画面 」参照)。
そんな時代背景にあっては、メガバイト級の画像を扱うのは並大抵ではありませんでした。
当時の画像はTIFFBMPPICTなどの画像ファイルが中心で、GIFなどの圧縮手法による画像フォーマットは産声を上げたばかりでした。
JPEGはメガプラス開発の5年後の1982年に制定されました。
そうした時代に、とてつもないメモリ容量を食う計測カメラが出現したのです。
当時とても高価だったメガピクセル画像撮影装置のシステム図を上に示します。
計測用カメラとして開発されたメガプラスの心臓部のCCDがどのようなものだったのかを紹介します。
 
■ VIDEK社メガプラスカメラのCCD
バイデックに使われたCCDはフルフレームトランスファ型CCD固体撮像素子です。
この素子はCCD素子のもっとも初期のもので、当時CCDと言えばこのタイプのものが主流でした。
1984年に打ち上げられたハッブル天体望遠鏡のカメラもこのタイプで、20年以上経った今でもこのタイプのカメラが使われています。
現在主流となっている電子シャッタ機能をもつCCD(インターライントランスファー型)はずっと後になって登場したものです。
フルフレームトランスファタイプは画像の転送を受光した画素で行うので、一般的になった垂直転送回路がありません。
受光部がそのまま転送部になっていました。
したがって、逆に言うと撮像素子上に受光とは関係ない転送部がないので受光部を大きくすることができ、開口率(Fill Factor)を100%とすることができました。
 
右図がCCDの転送構造図です。上下各1段ずつと左側の各段20画素分が遮光されていて、遮光部画素でダークノイズをカウントしています。
この構造を見る限り、CCDにはかなりのドリフトノイズ(多くは熱ノイズ)が絶えず発生していることがわかります。
都度、暗部ノイズをチェックしないと、まともな映像信号が得られないことを教えています。
 
以下、撮像素子の仕様を示します。
 
・撮像素子: CCDフルフレームトランスファ型固体撮像素子。
・画素数: 1340(H)x 1037(V) (1,389,580画素)。
・画素寸法: 6.8um x 6.8um --- 一画素あたりの寸法。正方格子タイプ。
・撮像素子の有効画面: 8.98mmx7.04mm(アスペクト比4:3)
            --- 2/3型フォーマットに対応。
・デジタル変換: 8ビット(256階調) --- 白黒画像、256階調。
・画素転送クロック: 10MHz --- 画素を画像ボード(コンピュータ)に送る転送クロック。
・画像転送レート: 最大6.9コマ/秒(メカニカルシャッタを使わないストロボ使用時)。
          8ビッドデジタル情報に変換された画素を10MHzのクロックで
          読み出して いくので、理論上の読み出し画像レートは、
          10MHz / 1.38958M = 7.196 コマ/秒
          となる。しかし、画像間の読み出し手順に時間がかかるので、最大6.9コマ/秒となる。
          ストロボを使わずに、CCDの露光時間で行うと露光時間中は転送できないので
          その分、画像転送速度は遅くなる。
          メカニカルシャッタを使う場合もメカニカルシャッタが動作する分だけ遅くなり、
          最大5.1コマ/秒となる。
・カメラ電源: 専用パワーサプライ --- 重量7kgと重い。
        入力電源: AC100V、AC120V、AC220V、AC240Vのいずれかをセレクタで設定。
         (現在では、自動的にAC90 V 〜AC240Vの商用電源を検知し、希望する直流電源をつくることが可能。
          当時はそれができずセレクターで設定。)
        入力電源周波数: 47Hz〜63Hz
        DC出力:  + 8V デジタル回路用
             + 18V 検出素子用電源
             - 15V 検出素子用電源
             + 11.85V メカニカルシャッタ電源
             - 8V A/D電源
・データ出力ピン: D-サブミニチュア37ピン
        ピン数:  37ピン
        デジタルビデオピン 8ピンx2
        デジタルグランド x2
        フレームリセット/露光時間 x1
        モード制御 x3
        ピクセルクロック x2
        ラインデータバリッド x2
        フレームデータバリッド x2
        露光 x2
        予備 x7
・カメラ単体の大きさと重さ:76.2(H) x 127(W) x 131.6(D)  1.59kg
・使用環境条件: 結露なき条件にて 0〜40℃
 
1990年代を通して計測用CCDカメラは普及の一途をたどりましたが、それでもまだ一般のユーザが簡単に使えるという代物ではありませんでした。
デジタルはまだまだ高価であり、これを使いこなすにはユーザのレベルも、そしてまた周辺機器のレベルも成熟していませんでした。
当時、私もなんどかこの種のカメラを扱おうとチャレンジをしましたけれど、親切な画像ボードメーカに巡り会えなかったり、CCDの仕組みがよくわからなかったり、パソコンが十分に使いこなせなかったりと、思うにまかせなかったことを覚えています。
そうした理由で、1990年代は、アナログのビデオ信号出力(NTSC、RS170)を持つアナログカメラの方が当時圧倒的に使いやすく成熟した製品であったことを思い出します。
市販で安価にたくさん出回っているビデオモニタを使えば、アナログビデオ信号による映像信号を画像として見る事ができ直裁的で簡便だったのです。
画質さえ厭わなければそれで十分でした。
真のデジタル時代が来るのは、2000年以降だと思います。
   
 
高解像力CCDカメラ(Megaplus)(2000.09.11)(2008.11.28)(2020.02.17)(2023.11.12追記) 
計測用CCDカメラは進化を遂げ、1990年代後半には4,000x4,000画素のカメラが登場しました。
実際に市販された高解像力CCDカメラについて、その性能を調べてみましょう。
ここで例に挙げたのは「メガプラス(Megaplus)」と呼ばれるカメラです。
このカメラは、米国Redlake MASD社のもので、1980年代後半より市場に出している科学用高解像力CCDカメラの総称です。
(1999年まではKodak MASD社。2008年時点で米国Roper社傘下、Redlake→PI部門で製造販売、2013年Megaplusカメラ製造中止)
右のカメラがMegaplus モデル16.8iと呼ばれるものです。
このカメラは4000画素x4000画素の撮像素子を持っていて、1秒間に2枚の画像を得ることができました。(2004年販売を終了しました。)
 
【主な仕様】
 
■ カメラ
・撮像素子: フルフレーム型CCD(Kodak製)--- 画像転送時にメカニカルシャッターで撮像素子を覆う。
・総ピクセル数: 1680万画素
        4,143 (H) x 4,126 (V) 画素
・有効ピクセル: 4,096 (H) x 4,096 (V) 画素
・ピクセルフォーマット: 9.0um x 9.0um
・画素エリア:  36.8mm x 36.8mm  --- ライカサイズ(36 x 24mm)より大きい。
・有効受光面積(開口率、フィルファクター): 100%
・シャッタ: レンズシャッタ(カメラではなくレンズに付いているシャッタを使っていた)
・シャッタ同期: 内部または外部同期・階調: 8ビット
 
■ ビデオ特性
・ブラックレベル: ブラックリファレンスにより補正
・ガンマ: 1.0
・走査方式: ノンインターレース
・同期: 内部同期
・ダイナミックレンジ: 48dB以上
・ピクセル・クロック速度: 10MHz
・フレーム転送速度: 0.5フレーム/秒
 
■ オプション
・冷却CCD: 水冷式
 
■ 寸法及び重量
・寸法: 113.0(H) x 99.1(W) x 256.5(L) mm
・重量: 2.3kg
 
●使用レンズ
上の写真からもわかるように、使用するレンズは一般のレンズではなくローライレンズを使用しています。
ローライレンズは、ラージフォーマットカメラ(ブローニーサイズと呼ばれる大判のフィルムで、プロカメラマンがスタジオ撮影や風景写真、集合写真に使用)のレンズです。
なぜこのような特殊なレンズを使うのかと言うと、CCDのサイズが大きいため(36.8mmx36.8mm、対角線52.04mm)、ニッコールレンズのようなライカサイズ(24mm x 36mm、対角線43.27mm)レンズを使っても全ての画角をとらえきれないからです。
従って、大判カメラのリンホフやハッセルブラッド、ローライ、ペンタックス6x7、マミヤに使われているレンズが必要となるのです。
撮像素子が大きいと、使用するレンズに制約が出たり、顕微鏡や特殊光学系に接続する場合に周辺部のケラレが出る問題が発生します。
 
●フルフレームトランスファー型CCD
先の項目(CCDの種類)でも述べたように、このカメラのCCDはフルフレームトランスファータイプを使用しています。
画素が多いタイプでは全画面が画素で覆われインターライン方式のように転送部を設けるという構造はありません。
そのため一画素すべてのエリアを受光部にする(開口率100 %)メリットがあり、受光容量が大きく天体観測用の素子としては好都合でした。
この素子では受光した画像を受光画素上で転送するため、転送時には遮光する必要があります。
このカメラではレンズに内蔵されているレンズシャッタを使って、被写体から入射する光を遮る方式を採用しています。
フルフレームトランスファCCDは、画像サイズに碁盤の目のようにビッチリと受光画素が配置されているため(これを開口率 = フィルファクター 100%といいいます)、被写体からの像情報をすべてCCDで取り込むことができます。
インターライン方式ですと、撮像素子上に転送部などが配置されるため、その部分は像の情報が無くなってしまいます。
これは画像情報に影響を及ぼします。
 
●総ピクセル数:
CCD撮像素子を構成する画素(ピクセル)の数を示します。
この画素が多ければ多いほど高解像力の画像が得られます。
反面、画像を取り込むコンピュータには、大容量のメモリを持ち、高画素画像を受け入れる高性能画像ボードと高解像力、高速表示性能が求められます。
 
●ピクセルフォーマット、画像サイズ、有効受光面積:
理化学用にCCDカメラを使用する際、重要になる性能です。
CCDカメラは超小型になっている流れの中で、画像サイズは1/2インチ、1/3インチサイズとなってきました。
理化学分野から見た場合、ピクセル数は多くて、ピクセルフォーマット(1画素あたりの大きさ)が大きい方が光を受ける面積が大きいので微弱光を検知しやすく有利です。
このカメラは9umx9umのピクセルサイズを持っています。
この1画素が4096画素分横一列に並ぶため、画像サイズは、9umの4,096個分、つまり36.86mmとなります。
従って、縦・横4,096個分のピクセル配列ですから画像サイズは36.86mm x 36.86mmとなります。
有効受光面積は、受光セル(画素)が画像サイズ全てにわたって受光できる割合を示すもので、開口率とかフィルファクターと同じ意味です。
このモデルではフルフレームトランスファーですから、画像サイズ全面にビッシリとピクセル配置され受光を遮る転送部などがありません。
画像情報を重視する場合にはフィルファクターが100%のものが要求されます。
 
●シャッタ及びシャッタ同期:
このモデルはフルフレームトランスファー型CCDのため、画像転送は画素の上で行われます。
したがって、画像の転送中は遮光する必要があります。
カメラによってはカメラ内部にメカニカルシャッタが内蔵しているものがありますが、このモデルでは、カメラではなくレンズ自体にシャッタが内蔵されています。
シャッタ同期というのは、ストロボ発光装置と同期させて画像を取り込む機能で、同期信号によって照明用のストロボを発光させ、その後に画像を転送します。
このモデルはシャッタ同期が内部と外部の切り替えができるようで、内部の場合にはカメラからストロボに対して同期信号を出力し、外部同期の場合にはストロボ発光装置から信号をカメラがもらい撮影のプロセスを行います。
 
●階調:
画像を取り込む濃度の巾をさしていて、このカメラの場合8ビット(256階調)の濃度成分を持ちます。
 
●ブラックレベル:
CCDカメラのセルにはいつもノイズによる電荷が貯まっていて、このノイズは情報として不適切なので、8ビットデジタル処理する場合の足切りとして黒の成分の電荷を予め覚え込ませておきます。
こうすることにより、有効な電荷成分を8ビット階調に割り当てることができます。
通常、このブラックレベル補正は、レンズにキャップなどを施して、暗電流やノイズ成分をプロセッサーに覚え込ませる処置を施します。
 
●γ(ガンマ):
光の入力露光量に対するCCDの受光濃度の傾きを表します。
γ=1というのは露光量と濃度が1:1に対応している事になります。
数式で書くと光の入力χに対してCCDの受光出力yが y = χγ の関係にある時のγの値を言います。
たいていのCCDカメラのγは1のようです。
このモデルもγは1です。
 
●ノンインターレース:
インターレースは、NTSCなどのビデオ信号に採用されている飛び越し走査方式で、このモデルでは全ての画素を1回の読み出しで行うためノンインターレース方式になっています。
なぜNTSCにインターレースがあるのかは、「高速度カメラQ&A」「Q01. 普段見ているテレビは1秒間に何枚の絵を出してるの?」を参照下さい。
 
●ピクセルクロック速度:
CCDに蓄えられた画像を画素毎にこのクロック速度で転送します。
このモデルでは10MHzのクロックで1600万画素(16M画素)の画像を取り出しますから1.6秒かかることになります。
これが次に述べるフレーム転送速度の根拠ともなります。
 
●フレーム転送速度:
1秒間に撮影できる枚数を表します。
このモデルでは0.5フレーム/秒で2秒に1枚の映像を得ることができます。
 
●CCD冷却:
オプションで水冷機能を設けることによりCCDの温度が一定になりノイズ成分を低減させたり安定します。
1分以上の長時間露光を行うようなCCDの場合は、電子冷却や液体窒素などを用いた冷却を行うことがあります。  
     
 
新型高解像力CCDカメラ(Redlake社 Megaplus ES11000) (2006.06.24)
2005年に、高解像力CCDカメラとして、右に示すような電子冷却型カメラが製品化されました。
これは、上で述べたMegaplus モデル16.8iの後継機種にあたるものです。
計測分野では、高速性能、短時間露光(電子シャッタ)要求が高いため、フレームトランスファ型CCDでは需要を満たしきれなくなってきました。
その要求に応えて開発されたのが、このタイプのカメラです。
しかも、電子冷却機能を備えて登場しました。
(Megaplusカメラは2013年にシリーズの生産を中止しました。)
このカメラの大きな特徴を以下に示します。
 
・ 撮像素子が36mmx24mmと大きい(フルサイズ)。
・ レンズは、ニコンのFマウント用レンズを採用。
・ 電子冷却を採用。ダークノイズ低減。長時間露光可能。
・ メカシャッタに代えて電子シャッタ方式のCCD撮像素子を採用。
・ インターライントランスファ方式にもかかわらず
  12ビット濃度(4096階調)を達成。
・ 高画素で高速撮影(〜4コマ/秒)が可能。
 
このカメラは、電子シャッタ機能を持ち、しかも12ビット濃度を持つという大きな特徴を持っています。
従来、高階調撮影ができるカメラは、電子シャッタを持たないフルフレームトランスファ型CCDカメラが一般的でした。
フルフレームトランスファタイプは、構造が簡単で受光部が広く深く取れるからです。
従って、電子シャッタ付きの高精細、高濃度カメラは2005年あたりからの市販化できるようになった技術のたまものであり、大きな撮像素子を均一に冷やす冷却型のCCDで、なおかつ最新のデジタル処理技術がなければできないことでした。
このカメラは、右に示すカメラヘッドとコンソール部で成り立っています。
コンソール部はカメラヘッドを4台まで接続することができます。
コンソールにはこの他、パソコンに接続するためのIEEE1394とCameraLinkコネクタ、電源コネクタ、トリガ入出力用BNCコネクタなどが装備されています。
カメラ操作は、パソコンによってコンソールを介してコマンドを送り、ライブ画像や記録画像をパソコンに取り込むことができます。
操作ソフトウェアは、カメラ専用のものが付属されていてWindowsXP上で動作できるようになっています。
 
主な仕様:
 
■ カメラ
・撮像素子: インターライン プログレッシブスキャン型CCD(Kodak製 KAI-11000CM)
・ピクセル数: 10,709,376画素 、4,008 (H) x 2,672 (V) 画素
・ピクセルフォーマット: 9.0um x 9.0um
・画素エリア:  36mm x 24mm(フィルムカメラのライカサイズと同じ)
・受光容量: 60,000 e-
・シャッタ: 電子シャッタ
・冷却: 電子冷却(室温より -5度の設定。ファン付きのものは室温より -15度)
・階調: 12ビット、66dB
・読み出しノイズ: 30 e-
・カメラレンズマウント: ニコンFマウント
 
■ 撮影操作
 
・カメラ操作及び画像読み出し: CameraLink もしくは IEEE1394a
・撮影速度: 最大4.63コマ/秒(CameraLinkにて30MHzでの読み出し時)
       3コマ/秒(IEEE1394、白黒画像時)
・電子シャッタ露出設定時間: 192 us 〜 60秒(1us設定)(連続取り込み時)
       19 us 〜 60秒(1us設定)(トリガーモード取り込み時)
・ゲイン調整: 0〜36dB
・ビンニング: 2x2、3x3、4x4
・ピクセル・クロック速度: 10MHz ・フレーム転送速度: 0.5フレーム/秒
 
■ 寸法及び重量
 
・寸法: 123.8(W) x 98.4(H) x 91(L) mm
・重量: 0.92kg  
 
■ カメラ電源部(コンソール)
 
・接続カメラ台数: 4台(メガプラスIIカメラシリーズがすべて使用可能)
カメラ-電源部ケーブル: 2m、5m、7m ・操作: 汎用パソコン(WindowsXP)にて
             IEEE1394もしくはCameraLink接続(操作ソフトウェア付)
             カメラ認識、撮影速度、露出時間、ゲイン、ビンニング、ライブ画像モニタ、
             画像転送 ・その他通信: Serialポート(オプション)、
             100Baseイーサネット(カメラファームウェアアップデート用)
・トリガ入力: デジタル信号(TTL、CMOS)による立ち上がり、もしくは立ち下がり信号。
        信号入力で決められた露出時間で画像取得。
・トリガ入力信号コネクタ: BNCコネクタ ・ストロボ出力: デジタル信号にて露出時間分だけ出力。
・ストロボ出力コネクタ: BNCコネクタ
・消費電力:15W/台(付属のACアダプタを用いてAC100Vから電源を供給)
寸法: 157(W) x 50.8(H) x 157(D) mm
・重量: 1.14kg
     
高速度カメラ用CCD素子(Kodak 16ch読み出し素子) (2000.10.01)
特殊なCCD素子について説明します。
高速度カメラ用に、1990年代後半に開発されたCCD素子です。
一般のCCDカメラは、1秒間に30コマ/秒の撮影を行います。
しかしながら、高速度カメラは1秒間に1,000コマ/秒程度の撮影を行います。
通常のCCDカメラの撮像原理は、上で述べた通りです。
750素子(水平)x 525素子(垂直)のCCD素子が、1秒間に30フレームで送る画素は、
 
750 x 525 x 30 = 11,812,500 画素/秒  ・・・(Rec -16)  
 
となります。
これが1秒間に1,000コマ/秒の撮影速度となると、転送速度は、393.8M画素/秒となります。
400Mバイト/s(3.2Gビット/秒)の高速読み出しは、単純に考えると不可能な値でした。
CCDの転送は100ns(1000万分の1秒)が限界と言われていますから、それよりも40倍も速く送らなくてはなりません。
そこで、Kodak社は素子を分割して並列に読み出す方式を考え出しました。
この考えは、1982年にKodakがMOS素子で実現して特許を取った方式です。
右の模式図が、Kodak HRという高速度カメラ(1996年、Kodak R0、1999年、Redlake MASD HGモデル2000、Redlake MASD CRモデル2000という高速度カメラに採用、2003年製造中止)に採用されたインターライントランスファー型CCD撮像素子です。
上下2分割、さらに水平に8分割で計16チャンネルの読み出し口を持っています。
1ch(チャンネル)あたりのCCD素子は64x192画素になります。
これで1,000コマ/秒の撮影を行いますから、
 
64画素 x 192画素 x 1,000コマ/秒 = 12,288,000 画素/秒/1ch  ・・・(Rec -17)
 
となります。 CCD素子の限界である10Mバイト/秒(10MHzクロック転送)の性能に挑戦した撮像素子ということができます。
この撮像素子は、高速読み出しという機能の他に、
 
・ 電子シャッタ機能(最小23マイクロ秒設定)(一斉同一時間シャッター = グローバルシャッター)
・ Bayerフォーマットカラーマトリクスフィルタによるカラー撮影
・ VOD(Vertical Overflow Drain)構造による1:100以上のアンチブルーミング機能
・ 16umx16um画素
・ 2/3インチサイズ素子(8.192mm x 6.144mm)
 
という特徴を持っていました。
この素子は、1994年から2003年までのカラー高速度カメラに採用されて活躍しました。
2002年あたりから、CMOS素子で高画素で高速撮影できる素子が開発されたので、この素子は製造を中止しました。
従って、この素子がCCDタイプでは最も高速に転送できた素子となりました。
 
以後、高速度カメラはCMOSの時代を迎えました。
CMOS素子になっても高画素、高速読み出しタイプのものは複数の出力ポートから並列に読み出して読み出し時間の短縮を図っています。
 
計測用CCD素子(Kodak KAF素子)(2000.10.01)
通常のCCD固体撮像素子とは趣を異にした理科学用の計測CCD素子も作られています。
平成12年(2000年)9月22日の科学新聞に、トピックスとして米国Kodak社が各種高性能センサーを発売しているという記事が載っていましたので紹介しておきます。
これらセンサーは、人工衛星、交通管制システム、デジタルカメラ、スキャナーなどに使用されています。
固体撮像素子は、急速に進歩していて1年でたくさんの新しい素子が発表されます。
これらの素子は現在も販売がなされているかは保証の限りでは有りません。
技術仕様の参考までに掲載するものです。
CCD素子は、右の写真のようにむかでのような足のついた電子素子形状で平板に受光部が設けられています。
この部分でレンズを通して結ばれた光学像が光の強さに応じて電荷を発生します。
その電荷をむかでの足を通して電子回路に送り、画像が形成されます。
  
・KAF-16801CE: 1680万画素の大型CCDセンサー
    画素サイズ9um、パッケージは34ピンセラミクス。
    スタジオデジタルカメラ向けに開発。
・KAF-5100CE: 510万画素
    画素サイズ6.8um、4/3インチイメージフォーマットサイズ、
    パッケージは26ピンセラミクス。2,614x1,966画素。
・KAI-1020: 100万画素、インターライン型CCD
    プログレッシブ型インターライントランスファー型CCD、電子シャッタ。
    デジタルカメラ向けに開発。
 
  また、コダック社では以下に述べるMOS素子についても初の開発を行い、以下の素子を販売すると発表していました。(2000.10)
 
・KAC-0310VGA: VGA対応のグローバル電子シャッタ内蔵MOSセンサー
    画素サイズ7.8um、ピンフォトダイオード、640x480画素、コダック社特許
    のグローバルシャッタ機能(全てのピクセルを同時に露光することが可能な機能、
    MOSタイプではこれが難しかった)、電源は3.3V。
・KAC-1310メガピクセルカメラ: 100万画素、MOSセンサー
    画素サイズ6um、ピンフォトダイオード、1,280 x 1,024画素、1/2インチセンサー
    8ビット/10ビット出力選択、プログレッシブ/インターレース選択  
 
2007年3月時点で、コダック社が供給するCMOSセンサーは以下の通りです。
 
・KAC-9618:  VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
・KAC-9619:  VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
・KAC-9628:  VGA(648x488画素)、7.5umx7.5um、1/3"型、30コマ/秒
・KAC-00400:  WVGA(768x488画素)、6.7umx6.7um、1/3"型、60コマ/秒
・KAC-01301:  1.3MP(1284x1028画素)、2.7umx2.7um、1/4"型、15コマ/秒
・KAC-05010:  5.0MP(2592x1944画素)、2.2umx2.2um、1/2.5"型、5コマ/秒
・KAC-3100:  3.1MP(2048x1536画素)、2.7umx2.7um、1/2.7"型、10コマ/秒
・KAC-5000:  5.0MP(2892x1944画素)、2.7umx2.7um、1/1.8"型、6コマ/秒
 
 
Kodak社のイメージセンサーは、それを製造しているRochesterの事業所を2011年にTruesense Imaging社(Rochester, New York)に譲渡し、2014年4月にはそれをOn Semiconductor社(Phenix, Arizona)に譲渡しました。(2020.02.20追記)
   
 
高感度CCD素子 - EMCCD  (2008.12.17記)(2009.02.03追記)
 
EMCCD(Electron Multiplying CCD)と呼ばれる固体撮像素子は、CCDの仲間に入り、非常に感度の高い撮像素子です。
電子増幅CCDと呼んでいます。
このCCDは、素子内部にある電子増幅を受け持つ回路によって、約1,000倍の感度をもつものです。
この素子は、2002年に、米国テキサスインスツルメンツ(TI)社と英国E2V社で同時に開発され、TI社の製品はImpactron(インパクトロン) CCD、E2V社の製品は、L3Vision CCDという商品名でそれぞれ販売されました。
このCCDは、感度が非常に良いので、イメージインテンシファイアと組み合わせたCCDカメラと比較されることが多く、フォトンカウンティングの領域で使われています。 EMCCDの構造を見てみると(右図参照)、撮像部は、フレームトランスファCCDと同じ構造になっていて、それに加えて、読み出し部に電子的な増幅部があることがわかります。
この電子増幅部に、50V程度の高い電圧が加わり、一種のアバランシェ効果(電子なだれ)を起こして画像信号を増幅していきます。
構造からわかるように、CCDがフレームトランスファ式なので、高速度撮影には向かず、電子シャッタも高速で行うことができません。
受光部から蓄積部に移す時間が最小露光時間となります。
例えば、縦列に512画素のCCDが並び、これを1.5us/画素で転送する場合、
 
1.5E-6 us/画素 x 512 画素 = 768 us
 
768 usの転送がかかります。この間に、受光部に光が入り続けますから、スミアの問題も出てきます。
また、電子増幅部でも同様のクロック時間でピクセル転送を行うとすると、512x512画素の画像では、  
1.5E-6 us/画素 x 512x512 画素 = 0.393
 
の取り込み時間がかかります。0.393秒は、2.54フレーム/秒に相当します。
こうしたことから、EMCCD素子は、(100us以下の)短時間露光が必要な応用や、高速度撮影はあまり得意でないことがわかります。
イメージインテンシファイア(I.I.)と比較した場合、I.I.の場合は、撮像管(真空管)であるために、過度な光に対してダメージが大きいことや、ノイズが多い、振動に対して弱い、寿命が短い、カメラと組み合わせて使うので画質が落ちる、という欠点を持ち、この点においては、EMCCDが有利となります。
しかしながらEMCCDは、マイクロ秒以下の電子シャッタを持ち得ないために、高速現象への応用が利かないというデメリットを持ち合わせています。
 
 
EMCCD を使った代表的なカメラ
   - ProEM(米国Princeton Instruments社) 【仕様】 ・撮像素子: 背面照射型EMCCD ・画素数: 1024 x 1024画素 ・画素サイズ: 13um x 13um ・素子サイズ: 13.3mm x 13.3mm ・画素濃度: 16ビット
・量子効率: 90%以上 ・電子冷却: -65℃ ・メカニカルシャッタ: φ25mm口径 内蔵 ・電子増幅: 二段増幅
・画素読み出し: 10Hz 〜 5MHz
 
 
 
 
・読み出しノイズ: 25e- @5MHz
          50e- @10MHz ・受光容量: 730,000 e- ・EM増幅: 1 〜 1,000X(設定可能) ・転送レート: 蓄積部への転送         0.6us 〜 5us(可変) ・取り出しレート: 10MHz、5MHz           1MHz、100kHz ・取り込み速度: 8.5コマ/秒          @1024x1024画素 ・レンズマウント: Cマウント
上に示したカメラは、2008年に発売された米国Princeton Instruments社のProEMという高感度カメラです。
素子に背面照射型のEMCCDを使っていて、-65℃で素子を冷やしています。
-65℃の低温なので、素子に霜がついたり結露することを防ぐために、素子は真空パックされています。
冷却効果を高めるため、外部より空気や純水などを送り込んで、電子冷却で発熱した部位を強制冷却する機構も設けられています。
素子は、1024x1024画素で16ビット(65,000階調)の濃度を持ちます。
CCDは、一定時間露光したあと、1024画素ある縦列を0.6us〜5us/画素かけて蓄積部に入れます。
この間(614us 〜 5,120us)は、光にさらされるためスミアの危険があります。
蓄積部に入った画素情報は、電子増幅を行いながら、100kHz〜10MHzのレートで読み出されます。
取り出しレートが低いと、ノイズが入らず高画質が維持されます。
10MHzの取り出しレートでは、1024x1024画素を0.105秒で取り出すことができます。
撮影速度は、この取り出し時間に、最小露出時間とCCDの蓄積部への転送時間を加えなければならないので、撮影速度は、8.5コマ/秒(0.118秒/枚)となります。
メカニカルシャッタは、転送時のスミア防止機能と暗部(ダークカレント)補正用、それに使用しないときのホコリ防止に使うもので、キャッピングシャッタの働きをします。    
↑にメニューバーが現れない場合、
クリックして下さい。

       
 
▲ 撮像素子 - - -CMOS(Complementary Metal Oxide Semiconductor)素子 (2000.09.24)(2008.10.25追記)
 
MOSタイプの撮像素子は、固体撮像素子開発の歴史では、CCDよりも早くから着想され開発が進められました。
しかしながら、思うような画質が得られず、1990年代中頃まではCCD固体撮像素子に大きく水をあけられていました。
 
MOSタイプの撮像素子は、CCDと違い構造が比較的シンプルです。
電源も転送でバケツリレーをしないため多種類の電源がいりません。
画素の転送は、XとYのそれぞれをアドレス(指定)して交差した画素の電荷を取り出す方式です。
この方式は、高速読み出しを行いやすい特徴を持ちます。
1990年に登場した固体撮像素子を使った高速度カメラには、MOS素子が使用されていました(Kodak HS4540、ナックHSV-1000、フォトロンFastcam)。
2000年を越えてからは、高画素(1280x1024画素、500コマ/秒)でグローバルシャッタ(全画素一斉に電子シャッタが働く機構)を持つCMOS素子が市販化されるようになったので、多くのカメラメーカが高速度カメラを作るようになりました。
高速度カメラは、現在(2002年〜2008年、およびそれ以降)、CCD素子を使ったものはほとんど見かけません。
CCDでは、電荷をバケツリレーで送る構造上、高速で転送できないという問題があったからです。
反面、初代(1990年代初め)のMOS型素子には、トランジスタによるスイッチングノイズが画像に影響を与えたり、画素はXYアドレスが指定されるまで電荷を蓄え続けるためシャッタ機能が設けられないという欠点も併せもっていました。
 
CCDは、高速度カメラに向かないと言いましたが、CCDの特殊な素子であるISIS(近畿大学江藤剛治先生開発)では100枚の画像記録をCCDの転送部に持たせ100万コマ/秒の撮影を達成しています。
 
 
■ MOSと呼ばれる半導体
CMOSと呼ばれる固体撮像素子は、MOS型固体撮像素子に区分されます。 MOS素子そのものは、1968年に米国RCA(Radio Corporation of America)社が開発したロジックIC(4000シリーズ)で有名になるトランジスタです。
MOSは、カメラのために開発された電子素子ではありません。トランジスタ構造の1種類です。
トランジスタの1種類として1950年代から研究が続けられていました。
MOSは、米国ベル電話機研究所を中心に米国RCA社、同Faichild社が熱心に研究を始めていました。
1960年代後半、トランジスタがアナログからデジタルへ移行していた時に、RCA社がデジタル素子としてMOS構造の半導体を採用しシリーズ化(4000シリーズ)しました。
 
当時、デジタル素子は米国テキサスインスツルメンツ社が開発したTTL(Transistor Transistor Logic、1964年)がありました。
1990年代までデジタル素子で高速のものはTTLが優れていたので、計測用のデジタル電子機器はTTL素子を使ったものが主流でした。
TTLは、バイポーラトランジスタ(初期のトランジスタ、NPN、PNP半導体を直線的に配置した構造)を用いたトランジスタロジックで、電流の流れで信号を扱っていました。
 
反対に、MOSはMOSFET(MOS Field Effect Transistor)という言い方で一般的なように、電界効果型トランジスタであり、電圧によりトランジスタを働かせるものです。
従って、MOSは、電流を消費しないという特徴を持っていました。
MOSは、構造上、nタイプのものとpタイプのもの、および両者を組み合わせた相補的なCタイプのものがあります。
歴史的にみてCタイプのものが最後に開発されて前者の良いところを取り込んだので、MOSと言えばCMOSを指すようになりました。
pMOSは初期のバージョンであり、安定していて消費電力が少ない反面、速度が上がりませんでした。
nMOSは速度向上に向いていました。
CMOSは、それら両者の良いところを取り入れて発展しました。
現在のCPUやRAMメモリなどコンピュータ回路には、ほとんどすべてCMOS素子が使われています。
このように半導体技術の歴史を見てみますと、MOS固体撮像素子は、MOS技術を導入して作られた固体撮像素子であったことがわかります。
従って、撮像素子の開発においても通常のMOS開発と同様の流れがありました。
つまり、nMOSタイプがMOS型撮像素子として1980年代に世に出ました。
CMOSタイプは1990年後半からです。
2000年以降、MOS型撮像素子はほとんどCMOSタイプになりました。
 
面白い事に、CCDはMOS半導体技術で作られています。
CCDカメラを実用化したソニーの越智氏はMOS技術者で、当時のソニーは、バイポーラトランジスタの技術が主流であり、MOS技術は亜流だったそうです。
1960年代後半に販売された卓上電子計算機SOBAX( = Solid State Abacus)は、MOS技術で作られていました。
しかし、卓上電子計算機はライバルのSharpとカシオの追い上げで苦しい展開を強いられ、1970年代始めにプロジェクトを終了させました。
越智氏は、そうしたMOS技術の中に身を置いて、その技術が活かせるCCD固体撮像素子の開発に取り組んだことになります。
CCD固体撮像素子は転送方式の名前から命名され、(C)MOS固体撮像素子は回路そのものの電子技術から名前が付けられたことになります。
 

 

 
【CMOSカメラの開発】 MOS(正確には相補型MOS、CMOS = Complementary Metal Oxide Semiconductor)
 
固体撮像素子は、CCD撮像素子と同じ時期、正確にはCCDより3年早い1967年に、米国フェアチャイルド社(半導体メーカの草分的存在の会社。CPUで有名なインテルは1968年にFairchildからの社員3名で作られた)のWeckler氏によって発表されました。
 
MOS型撮像素子の簡単な原理は、光をフォトダイオードで受けてそれをトランジスタのスイッチによって取り出すというものです。
フォトダイオードをアレイ状に並べたものでした。
CCDが電荷の転送形態を発想の主眼において半導体メモリとして使おうと考えていたのとは好対照で、CMOS撮像素子は最初から映像デバイスとして開発されました。
従って、画像を取り出す考え方はとても素直です。
 
1970年から1980年代は、固体撮像素子の興隆期で、MOS型、CCD型あるいは、この二つを組み合わせたMOS-CCD型が競い合っていました。
1990年代はS/N比に劣るMOS型はトランジスタのスイッチングノイズとフォトダイオードの感度のバラツキが主な原因で、性能面でCCD素子に水を開けられました。
しかし、1990年代の終わりになって再びMOS型素子を見直す機運が現れました。
MOS型素子の特徴は、製造工程が簡単なことと消費電力が少ないこと、それに自由な読み出しパターンが得られることです。
特に消費電力が小さいことは、昨今のデジカメの台頭やバッテリ駆動のムービーカメラでは大きな魅力になって再び脚光を浴びるようになりました。
 
CMOSイメージセンサーが見直される直接的な契機は、1994年、米国NASAのジェット推進研究所(JPL:Jet Propulsion Laboratory)のEric R. Fossum(1957.10.17〜)氏の研究に始まります。
エリック・フォッサム氏は、JPL退社後、1995年にフォトビット社を設立し、2001年Micron Imaging → 2005年Siimpel社(前SiWAVE社、後Tessara社)、および南カルフォルニア大学助教授を勤められ、2010年からはThayer school of Engineering at Dartmouthに就任されています。
彼は、CMOS素子に増幅器を内蔵させたCMOS APS(CMOS Active Pixel Sensor)撮像素子を開発しました。
これがCCDに匹敵する画質を持っていたため、MOS型素子の長所をアピールすることができるようになり、AT&T、Kodakなどへ協力を呼びかけて活性化を図り、今日のCMOS撮像素子の発展につながって行きました。
 
NASAでは、宇宙計画の一環としてコンパクトなカメラ素子開発を望んでいて、シリコン基板上にセンサー、アンプ、ドライブ回路、補正回路をすべて実装でき、しかも単一電源で駆動するCMOSカメラの開発に熱心であったという背景があります。
 
この開発が、携帯電話や監視カメラなどの「目」として急成長を促していくことになりました。
2000年からは、電子シャッタ機能を持つMOS型固体撮像素子もできました。
2004年あたりからは、デジタル一眼レフカメラにも採用されるようになりました。
 
また、CMOSセンサーはカメラの眼としてではなくコンピュータに使われる光学マウスのセンサーとして利用されています。
オプティカルマウスは、この光学素子のおかげで飛躍的に業績を伸ばしてきました。
このセンサーは、以下の特徴を持っています。
 
センサーとして、16x16画素(256画素)のCMOS素子を採用。
・濃淡像は、64階調(6ビット)階調
・取り込み速度は、2300コマ/秒、256画素、64階調の2次元画像パターンを処理。
・X,Y方向の移動パターンを10種類の速度データとして2300Hzで出力。
・DIP(Dual In Package)で電源回路及び取り出し、回路と一緒に22mmx10mm程度のICチップに収納
・解像度は800cpi(count per inch)、0.032mm( = 32μm ) 。
 
このセンサーを開発したのは、米国 Agilent Technologies Inc.という会社で、ADNS-2051という素子を一般向けに販売しています。

 

 
     
 
【CMOSカメラの特徴】
2000年以降、CMOS撮像素子が復権してきました。
2020年にあってはカメラの撮像素子と言えばCMOSとなりましたけれど、1980年代から2000年まではCCDが主流でした。
CMOS素子が撮像素子の代表になった理由を以下に述べます。
 
1. 画質の向上
新世代(1990年代後半)のCMOS固体撮像素子は各画素に増幅素子(APS 機能)を備えています。
MOS製造技術がCCD素子並に発達して1画素 4〜7um相当の素子が作られるようになり、微細加工技術によってフォトダイオード、増幅トランジスタ、リセット用スイッチ、行選択スイッチを配列する事が可能になりました。
この考えはMOS型撮像素子が考案された当初からあったアイデアではあったものの、当時の加工技術では不可能でした。
各画素に増幅トランジスタを配置できることによって、受光した微弱な電荷を直ちに増幅できるようになり、その後に加わるノイズに比べて信号成分を高くすることができるようになったため、S/Nのよい高画質な映像を得られるようになりました。
 
2. 固定パターンノイズを抑える技術の確立
固定パターンノイズ(FPN:Fixed Pattern Noise)を抑圧する回路をMOS素子上に実装できるようになり、各画素に設けられた増幅トランジスタの特性のバラツキを抑えることができるようになりました。
 
3. CMOS技術で素子を構築できるため小型コンパクト
素子をCMOS製造技術ですべてまかなえるため、構造がシンプルでコンパクトにまとめることができます。
電源も単一電源(例3.3V)だけで駆動できることから電源部もシンプルにできます。
実際には素子にはいくつかのバイアス電圧が必要ですが、素子にバイアス発生回路を内蔵させることができるので、外部からは単一電源とマスタークロックを与えてやれば良いというシンプルなものになります。
言い換えればCMOSセンサーは1チップで駆動に関する電子回路を全てを内蔵しています。
CCD素子はCMOS素子と違い、構造上1チップにまとめることができません。
 
4. 低消費電力
これがCMOSの大きな特徴です。
CMOS撮像素子は、読み出す画素のX-YアドレスのトランジスタスイッチのみをONし、後は休止していても問題ない構造となっています。
反対に、CCD素子では常時垂直、水平転送部に転送のための駆動パルス(それも5V、12V、-8Vなどの複数の電圧)を印加させなくてはならないので、電気を常時消費します。
CMOS素子の場合、VGAクラス(640x480画素)のモジュールで消費する電力は200mWで、同じクラスのCCDに比べて1/5と言われています。
この利点を活かして、携帯電話、モバイルPC、小型を必要とするカメラの応用市場で急速に需要を伸ばしています。
おもしろいことに、高級デジタル一眼レフカメラ分野でもCMOS撮像素子を採用するケースが増えています。(この記述は1998年のもの。2020年は全てCMOS素子。)(2020.02.19追記)
 
5. X-Yアドレッシングの魅力
CCDが一括転送という機能を主眼に開発されたのに対し、CMOSは特定の画素を指示して読み出すことができるX-Yアドレッシング方式です。
この特徴を巧みに利用すればおもしろい応用が広がります。
高画素の素子は全ての画素を読み出すのに時間がかかるので、撮影速度が遅くなる欠点がありますが、X-Yアドレッシングの機能を使えば、興味ある範囲だけを読み出したり、間引きをして読み出すことで高速モニタリングでき、構図を決めたりピント合わせなどを迅速に行うメリットが出てきます。 高速読み出しというのも大きな魅力です。
2004年には、1504 x 1128画素、1,000コマ/秒で読み出せるCMOS素子が開発されました。
 
6. 安価
CMOSセンサーは、既存の半導体技術で比較的簡単に製造できるため、価格が安くできるというメリットがあります。
価格が安いと言うことはパーソナルユースの電子機器に組み込まれる潜在能力を持っています。
今や携帯電話にCMOSセンサーを搭載したモデルが常識になっています。
こうした画像機能を付加した電子機器が価格が安価になれば、爆発的に伸びる可能性があります。
コンピュータに使われる光学マウスにもCMOSセンサーを搭載したモデルが多く出回るようになりました。
2000年ベースでのCCDの世界規模の売り上げは18億ドル(2000億円)と言われ、方やCMOSは6億3200万ドル(758億円)でした。
当時、世界市場の75%がCCDの市場でしたが、2004年にはCMOSが追い抜き、その売り上げ規模は22億8000万ドル(2,736億円)となりました。
CCDは、特殊な応用(医用、天体観測、物理学分野、放送局分野)分野での使用に限られて来ています。
 
 
▲ CMOS素子とCCD素子 (2001.09.24)(2008.12.27)(2018.11.20)(2019.05.01追記)
 
固体撮像素子の代名詞である両者のどちらが良いかを、簡単に述べるのは難しいことです。
歴史的にはMOS型撮像素子がCCDに先んじて開発されましたが、1980年と1990年は圧倒的にCCDの時代でした。
2000年になってCMOSの持つ欠点が克服されて長所が見直され、徐々に固体撮像素子の市場に浸透し、2010年以降はCMOSが80%以上のシェアを占めるようになっています。
計測用CCD素子は、2001年の春、Kodak社とMotorola社の共同開発によってメガピクセルサイズのKAC1310というカラーCMOSデジタルセンサー(1/2インチフォーマットサイズ、1280 x 1024画素)と、KAC0310と呼ばれるVGAタイプ(1/3インチ、640 x 480画素)のセンサーが発売されました。
KodakのCCD事業部は2012年2月にTruesense Imageing社に引き継がれ、これが2014年4月にON Seminconductor社(1999年Motorola社より分離独立した会社、米国アリゾナ州Phoenix)に統合されました。
CCDとCMOS両者の2000年時点での市場占有率は、CCD75%、CMOS25%と言われていました。
これが2004年には逆転し、2007年にはCCDの市場は30%になるだろうと予測されていました。
(2006年1月の時点では、CMOSカメラが大分追い上げてきてはいますが、まだ逆転はしていません。
ただし携帯電話用のデジタルカメラは2004年にCCDチップを追い越して、2007年でのCMOS素子はCCDの6倍になっています。
反面、デジタルカメラは2007年時点でCCDの1/10程度となっています。
高級デジタル一眼レフカメラでは、2008年時点でCMOSセンサーが大勢を占めるようになりました。)
 
2002年、キヤノンが35mmフィルムサイズ(ライカサイズ)のCMOS撮像素子を開発し、EOS-1Dsに搭載しました。
CMOSはCCDに比べてノイズが多く画質が悪い、と言われていた定説に真っ向から果敢にチャレンジし、製品化に漕ぎ着けました。
有効画素1,670万画素(4,992画素x3,328画素)に及ぶライカサイズの大型撮像素子開発に、なぜCMOSを選んだかと言うと、
・ 一つには、電気を食わない素子であったこと、
・ 次に、CCDに比べて製造が楽なために大形化しやすかったこと。
・ そして、たくさんの画素を速く読み出す必要から高速化のできるCMOS素子が適当であったこと
があげられます。
キヤノンは、この素子を8chの並列読み出しとして、4コマ/秒の撮影を達成しました。
大きな撮像素子はCCDでは製造が難しかったり、消費電力が大きかったりとCMOSに舵を切らざるを得なかった見方も成り立ちます。
しかしながら、画質はCCD に比べるとまだ不十分で、2005年レベルでカラーリバーサルフィルムのラチチュードに追い付いた程度、と言われていました。
 
■ フィルムカメラを撤退させたデジタルカメラ 2006年1月13日に、大きなニュースがありました。
名門ニコンが一眼レフフィルムカメラから撤退するというニュースでした。
ニコンの高級一眼レフフィルムカメラの販売台数は、最も販売した2000年の104万台をピークに下降線をたどり、2005年は14万台と1/7強まで落ちてしまったそうです。
その代わりにデジタル一眼レフカメラの販売が好調で品薄状態が続いていたそうです。
ニコンが採用している固体撮像素子は、イメージサイズ23.7mm x 15.7mmとフルサイズ(ライカサイズ)ではありません。
画素の少ないモデルにはCCD素子が使われ、ニコンD2xの4,288x2,848画素(12.4Mピクセル)にはCMOSが採用されました。
 
この事実は、画質優先というよりはバッテリの消費電力と読み取り速度、製造上の利点だと考えます。
【CCDとCMOS撮像素子の一般的な比較】
CCD素子とCMOS素子は、今後どのような関係を保ってイメージング産業を支えていくのでしょう?
こうした技術は、日進月歩進歩するので現時点(2008年)で断定するのは無謀かと思いますが、おおよその傾向を述べておきたいと思います。
2018年では天文学、医学分野、放送機器以外を除きほとんどがCMOS素子となっています。(2018.11.19)
 
■ 感度
撮像素子の感度は、セルの大きさ、ノイズの量、増幅度、カラーフィルタの形式によって決まります。 基本的にノイズ成分の多いCMOSセンサーのほうが信号成分が少なく、開口率も小さいため感度はCCDの方が高いようです。
リッチな画像情報(階調、高S/N)を得たい場合CCDカメラのほうが現時点(2008年)で有利です。
16ビット濃度(65,000階調)を持つCCDカメラは市販されていますが、16ビット出力のCMOSカメラは2008年時点ではなく、2018年では12 bit階調のCMOS素子が市販化されています。
 
 
CCD
CMOS
感度
画質
画素数
消費電力
×
コンパクト
×
電子シャッタ
ブルーミング
×
将来性
応用
天体観測 医用分野
放送局分野
携帯電話 デジカメ 高速度カメラ
マウスセンサ
CCD撮像素子とCMOS撮像素子の相対比較(2008年時点)
この表は、相対的な比較であり、絶対的な意味を持つものではありません。
■ 画質
画像の質感は、受光容量が大きくてS/Nの良いCCDの方が基本的には良好です。
反面、24mm x 36mm(フルサイズ、ライカサイズ)のような大型撮像素子を使った高級デジタル一眼レフカメラにはCMOSが主流になっています。
この事実から、CMOSは画質が良い、と判断しがちですが、生画像は理論的にはCCDの方が優れていると思います。
高級デジタル一眼レフカメラには「グラフィックエンジン」という画像処理機能が設けられていてここでかなりの画像修正を行っているようです。
また、それだけ大きな素子でかつ高画素となりますと、CCDでは消費電力が大きくなり製造コストもかかることからCMOSに開発のリソースを集中させたと考えるべきでしょう。
天体観測機器では十分な冷却装置で素子の温度管理を行えるため、2019年時点でもCCD素子が使われています。(2019.05.01追記)
 
■ 画素数
CCDの方が歴史が長い分、高画素の素子が製造されています。
CCDでは4,000x4,000画素のものが2000年の時点から販売されています。
CMOSは製造プロセスが簡単でDRAMの製造プロセスで製造できるため、近年高画素化が進み、1,280x1,024画素から4,992x3,328画素まで製造されるようになっています。
製造の観点から言うとCMOSの方が製造工程がCCDに比べてシンプルであるため、2018年に至るまでCMOS素子の小型高画素化に拍車がかかっています。
 
■ 消費電力
CMOSセンサーは同等のCCDセンサーに比べて1/5〜1/10の消費電力と言われています。
バッテリ駆動による装置ではCMOSセンサーの方が格段に強みを発揮します。
 
■ コンパクト
素子をコンパクトに設計するのは構造上CMOS素子の方が優れています。
素子の構造がシンプルなため集積率もCMOSの方が高くできます。
 
■ 電子シャッタ
CCD素子の中で、インターライン型と呼ばれるものは電子シャッタ機能を持ちます。
CMOSもグローバルシャッタ機能付きは同時刻電子シャッタ機能を持っています。
ただし、グローバルシャッタ機能のCMOSは、各画素にシャッタを切った後の電荷を一旦蓄えるメモリ部を持たせるので、受光部が小さくなり感度が悪くなる傾向があります。
デジタル一眼レフでは、グローバルシャッタ機能を持つCMOS素子はありません。
また携帯電話に使われるCMOSは、ローリングシャッタです。
 
■ Blooming(ブルーミング)
CMOSセンサーは、受光部がバイアスをかけたフォトダイオードでできていて、 光の入射に対して保持していた電荷を放出する構造になっています。
従って、過度な光が入射してもCCDセンサーのように過剰な電荷が蓄えられて周辺の画素にあふれ出すようなBloomingという現象がおきません。
この現象がないのは、CMOSセンサーの大きな特徴です。
▲ CMOSの画質を向上させたCDS(Correlated Double Sampling)機能 (2008.12.27)
 
CMOS撮像素子が、ノイズを低減させて画質を向上させていった大きな技術革新の一つにCDS(Correlated Double Sampling、相関二重標本化法)があります。
CDSは、米国ウェスチングハウス社のMarvin H.White(1937〜)(CDSの功績で、2021年第73回エミー賞受賞 = 73rd Technology & Engineering Emmy Award)が、1974年に開発したものです。
この手法は、信号成分と信号のない時間での雑音成分を逐次A/Dサンプリングしてその差分を得るというものです。
両者の共通する雑音成分を除去することができ、S/Nの良い映像情報を得ることができるようになりました。
       
 
▲ 電子シャッタ内蔵CMOS撮像素子  (2008.07.03記)(2008.09.13追記)
 
計測用CMOS撮像素子では、電子シャッタ内蔵のものが一般的になっています。
計測目的に使う場合には、時間分解能を上げる必要上この機能を備えたものがとても大切だからです。
CCD素子においても、計測目的では電子シャッタ内蔵のインターライントランスファCCDが一般的になっているのと同じ理由です。
CMOS撮像素子ができた当初は、シャッタ機能がありませんでした。
右図の青色の破線で囲まれた回路のないCMOS撮像素子が一般的でした。
従って、フォトダイオードに蓄えられる電荷は、取り出しスイッチで取り出されてリセットがかかるまでフォトダイオード上に残ることになります。
 
CMOS撮像素子では、各画素毎にスイッチが働いて蓄えられた電荷量を取り出すので、1画素毎に取り出し時間がずれます。
(インターフレームトランスファ型)CCDのように一斉に取り出すことはできません。
CCDは、垂直転送路でそうした芸当ができましたが、CMOSは一つ一つ取りだすことが基本的な原理となります。
従って、一画面の構成は、撮影速度分の1、つまり、30コマ/秒の撮影では、最初に取り出した画素と最後に取り出した画素では1/30秒の時間的ズレが生じることになります。これは1940年代に出来上がったテレビ放送の撮像原理、送信原理、受像原理でも同じ事が言えました。
   
 
■ ローリングシャッタとグローバルシャッタ(Rolling Shutter, Global Shutter)
1990年中頃に開発されたCMOS素子は各画素に増幅器が内蔵されていて、画素毎のノイズをキャンセルして情報分を有効に取り出す工夫がなされていました。
これを1990年以前のCMOSと区別して、APS(Active Pixel Sensor)と呼びます。
これは先に説明したもので、右上の図の青色点線のない構造です。
APSでは、各画素にリセットスイッチと増幅素子が内蔵されています。
APS以前の素子をAPSの対語としてPPS(Passive Pixel Sensor)と呼んでいます。
APSでは、リセットスイッチの働きによって受光する時間分を任意に設定することができます。
このリセットスイッチの本来の機能は、ノイズ成分も取りだしてノイズと受光成分の2成分を引き算して(CDS = Correlated Double Sampling、相関二重サンプリング手法で)ノイズを低減するために設けられたものですが、このリセットスイッチをシャッタスイッチとして使うことができます。
すなわち、リセット信号を使って短い時間だけ受光を行えば高速シャッタリングを行うことができます。
この高速シャッタは取り出す画素ごとに行っていくので、取り始めの画素と取り終わりの画素では時間的遅れが生じます。
この機能をRolling Shutter と言います。
この機能では、1/100,000秒程度の短時間露光を行うことができる反面、各画素が1/30秒で取り込まれるならば最初の画素と最後の画素では1/30秒の遅れがでてしまいます。
ローリングシャッタの名前の由来は、画面をローラで舐めるように(ドミノ倒しのように)シャッタが次々と切れていくので、この名前が付けられたと理解しています。
このシャッタ機能を説明したのが下の図の右です。
実際のシャッタはこのようなものではありませんが、孔のあいたシャッタ孔が左から右に走り開けられた部位に相当するセルが露光を受けるという仕組みです。
これはニポー(独 Paul Nipkow、1860 - 1940)が1883年に考案したしたことからニポーシャッタとも呼ばれています。
CMOS撮像素子ではこの機能を電子シャッタで行っていました。
要するに全画素一度に電子シャッタを切ることはできなかったのです。
計測分野ではこのシャッタは受け入れ難いものでした。
ローリングシャッタは、光量を調整するためには有効なものであるものの、画素ごとに時間が変わるのは正確な時間成分情報が得られないことを意味します。
ローリングシャッタによる画像をみると、動きの速い被写体では像が歪んでしまいます。
一眼レフカメラに使われているフォーカルプレーンシャッタも、一種のローリングシャッタです。
フォーカルプレーンシャッタは、撮像面(フォーカルプレーン)に設けられたシャッタであり先幕と後幕の2枚の幕がフォーカルプレーン上を端から端まで走ります。
2枚の幕の間隙(すきま)の巾と走るスピードでシャッタ時間が決まります。
幕の走るスピードが遅い場合、撮像面の両端では露光する時間タイミングが顕著に変わります。
ローリングシャッタはフォーカルプレーンシャッタと同じような問題を抱えています。
グローバルシャッタは、ローリングシャッタの問題を解決するために開発されました。
 

 

■ グローバルシャッタ(Global Shutter)
CMOS素子にグローバルシャッタ機能が付けられたことによって、CMOS素子が計測用カメラとして普及を見たのは疑いのない所でしょう。
しかし、高級デジタル一眼レフに採用されているCMOS素子には、グローバルシャッタ機能は付けられていません。上の図からあきらかなように、グローバルシャッタを付けるということは、画素内の回路が複雑になってフォトダイオード部が小さくなることを意味します。
この機能を付け加えると、画素の開口率が下がり、さもなくば1画素のサイズを大きくしなければならなくなってしまいます。また、素子にシャッタという付加回路を付けなければならないことにより素子が高価になります。
従って、グローバルシャッタ内蔵のCMOSカメラは、高速度カメラを含めた計測カメラしか使われていません。
グローバルシャッタ機能がなかった1990年代の高速度カメラは、撮像素子の前にロータリ円板シャッタを回して撮影と同期させてシャッタを切っていました。円板のスリット巾と円板の回転数でシャッタ時間が決まりました。撮像面をスリットが横切ってシャッタを切るわけですから、回転円板シャッタはフォーカルプレーンシャッタということになります。
また別の高速度カメラは、シャッタ機能をつけずにそのままのものもありました。
そうしたカメラで高速度現象をとると顕著に画流れと像の歪みがおきました。
この不具合を解決するために、パルスレーザを使ってレーザストロボで鮮明な画像を撮ったり、カメラの前にイメージインテンシファイア(光増幅光学装置)をつけてシャッタリングを行いました。
CMOSにグローバルシャッタ(電子シャッタ)がつけられるようになって、1/100,000秒〜1/1,000,000秒(10us〜1us)のシャッタリングが可能になりました。
電子シャッタが機能する時間タイミングは、CCD素子の電子シャッタと同じで、転送を始める直前に行われます。
 
■ 背面照射型撮像素子(Back Illuminated Image Sensor)(2020.02.11追記)
背面照射型撮像素子は、右図に示すように受光部を前面部に配置して配線部と回路素子を下部に配置した撮像素子です。
半導体製造工程では下図の左に示した表面照射型撮像素子が一般的でした。
撮像素子は、シリコン基板部にまず受光部を作りその上部に関連する配線や増幅回路、スイッチ回路を生成していきました。
積層された付帯回路は受光部に対して土手のように高くなるため、入射光が受光部に十分に届かない、すなわち、開口率が低く感度の低い素子となっていました。
それを解決するため、光を基板の側から(背面から)直接受光部に入れる方式が考え出され、撮像素子製造の最後の工程で基板を極限まで磨いて受光部を露出させるように配慮し、それをひっくり返してカラーフィルターとマイクロレンズを付けるようにしました。
背面照射型撮像素子は、製造工程の難しさから天体観測用の素子に使われてきたぐらいで民生用には使われてきませんでした。
しかし技術革新の結果、スマートフォンのカメラにも使われるようになって感度の高い撮影ができるようになりました。
 
 
【高感度・高ダイナミックレンジの科学用CMOS - sCMOS】(2020.02.10追記)
長時間露光撮影や16ビット(64000階調)のできる撮像素子は、CCD素子が圧倒的に有利でしたが、CMOS素子でもCCDの特性を凌駕するものが開発されました。
sCMOS(scientific CMOS)は、CMOSの欠点である低濃度(低受光容量)と低感度を克服した科学用CMOS撮像素子です。
2009年に発表されました。
開発は、Andorテクノロジー社、Fairchild イメージング社、とPCO社の3社で行われました。
開発の目的は、極めて低ノイズであること、高速取り込みができること、広いダイナミックレンジであること、量子効率が高いこと、高解像力であること、広範囲の視野を同時に一つのイメージセンサーでまかなえること、などでした。
右のsCMOS素子は、以下の性能を持っています。
 
・画素数: 2560画素 x 2160画素(5.5M pixels)
・最大撮影速度:105コマ/秒(ローリングシャッタモード時)、52.5コマ/秒(グローバルシャッタモード時)
・ピクセルサイズ: 6.5μm
・読み出しノイズ:<2e-@30コマ/秒、3e-@105コマ/秒
・ダイナミックレンジ:16,000:1@30コマ/秒
・QE(量子効率)max.: 60%・読み出しモード: ローリングシャッタもしくはグローバルシャッタ(選択可)
・冷却: 可能 空冷-30℃、水冷-40℃
・冷却時の暗電流: 空冷 0.0015 e-/pixel/sec、水冷 0.007 e-/pixel/sec
sCMOS撮像素子はなぜ高濃度で低ノイズ、高速読み出しができるのかというと、上図に示すような1画素に2つの読み出し処理回路があるからです。
一つは高感度ゲインのアンプを使った微弱光領域の高感度用で、もう一つは低感度ゲイン用のアンプです。
この2つの処理回路で得られる各11bitデータを合体処理して22bitデータとして取り出します。
これにより、数万エレクトロンの受光容量が得られ、高速サンプリングも100コマ/秒が得られます。
sCMOSは、サンプリング速度が足りない高感度CCDや、焼き付き問題を持つI.I.(Image Intensifier)を補う機器として医学分野や微弱光を扱う物理分野で注目を集めています。
   
↑にメニューバーが現れない場合、
クリックして下さい。

       
 
▲ 一時代を築いた撮像管 (2001.02.26)(2008.10.13追記)
 
固体撮像素子全盛の時代にあって、1990年代まで使用されてきた真空管撮像素子(イメージチューブ、撮像管)について触れたいと思います。
撮像管は、右図に示すように真空管です。
真空管の先(図では左下)が平面になっていて、そこが光導電体(photo conductor)となっていて光に反応して電子像を形成します。
光導電膜の場合、光の強度に応じて抵抗が変化します。右上が電極です。
 
撮像管は高価で、取り扱いが難しい(高電圧を使う、光に対して敏感で焼き付きが起きる、破損しやすい、寿命が短い)製品のため、撮像管しかなかった時代にはテレビカメラを使って家庭内のプライベートな映像を撮るということはありませんでした。
当時、アマチュア向けのテレビカメラは無かったのです。
1980年代中頃までの家庭用動画撮影装置と言えば、8mmフィルムカメラが主流でした。
テレビカメラが家庭に普及するようになるのは、CCDカメラと家庭用VTRが一般的になった1880年代後半からです。
この時期に、8mm巾のビデオテープレコーダとCCDカメラの二つの映像機器が家庭用に開発され、これが一体型となって持ち運びに便利になったため大いに普及するようになりました。
従って、1980年代中頃までのテレビカメラと言えば、放送局用か産業用に限られていました。 現在主流になっている個体撮像素子と比べると、撮像管は以下の特徴を持っていました。
 
■ 固体撮像素子と比べた撮像管の特徴  
・ ガラス製真空管 - 大きくて、破損の危険
・ 耐久性に問題あり
・ 寿命が短い(フィラメント切れ、真空度劣化)
・ 消費電力が大きい
・ 高電圧を使用する
・ 残像が多い
・ 過度の光で焼き付きが起きる
・ 歪曲収差が多い
・ 磁界の影響を強く受ける
・ 高価
 
CCDは、撮像管の欠点をカバーするすぐれた特徴をたくさん持ち合わせていました。
従って、固体撮像素子の解像力と階調、感度が撮像管の性能に匹敵した時点で撮像管の時代の幕が下りました。
   
 
■ 撮像管の原理
撮像管の基本原理は、フォトチューブ(光電管)です。
固体撮像素子がフォトダイオードであるのに対し、撮像管は真空管を使った光検出素子と言えます。
歴史的に見て、光電管の応用製品として撮像管ができるのは十分に理解できます。
撮像管の多くは、光導電体(photo conductor)を利用しています。
光電面(photo-cathode)ではありません。
光電面は電子像が電子として一気に放出されるのに対して、光導電体は電気抵抗が変わるだけなので、撮像面上の画像を一筆書きでなぞるように取り出すにはこのほうが都合がよかったのです。
光電面は初期のテレビカメラ(非蓄積形撮像管、イメージディセクタ)や、イメージ形撮像管に使われました。
撮像管は、光導電体の2次元面に光学像を結ばせて、2次元面の光学像をなぞるようにして電気信号変換(スキャン)を行っていました。
従って、撮像管には走査を可能にするための熱電子電極と、熱電子を光導電体に打たせる偏光電極機能を持たせていました。
撮像管は、ブラウン管(CRT = Cathode Ray Tube、陰極線管)の反対の装置と考えて良いでしょう。
ブラウン管(CRT)は、電子銃を使って蛍光面に電子像を描画する装置です。
固体撮像素子と液晶テレビができるまでの電子映像は、入力も出力も電子管(真空管)だったのです。
 
 
■ 代表的な撮像管 - ビジコン(Vidicon)管 下図に代表的な撮像管であるビジコン管(Vidicon tube)を示し、その原理図を示します。
撮像管は、外形が細長い円筒状のガラス管でできています。
図の左側が光導電体(ターゲット)で、全体の中程に電子ビームを偏向及びフォーカスさせる電子制御部があり、右側は熱電子を放出するフィラメント = カソードになっています。
撮像管の周りは、撮像管内の電子ビームを走査する偏向ホークや収束コイル、アライメントコイルが取り付けられています。
撮像管の左側の入射部にはカメラレンズが取りつけられ、光学像が光導電体(ターゲット)にできるようになっています。
撮像管は真空管なので、電子ビームを放出するために別途300V〜800Vの電源を必要とします。
撮像管内部には、カソードから放出される熱電子(電子ビーム)を精度良くターゲットに当てるための制御グリッドが4つ(G1〜G4)配置されています。
G1(グリッド1、1番目のアノード)はカソードからの熱電子を加速する役目をし、G2(グリッド2)はG1で加速された電子ビームの電流調節を行います。
G3は電子ビームを均一に飛ばす目的の円筒グリッドで、G4メッシュが電子ビームを減速させてターゲットに都合良くコンタクトさせるものです。

 

撮像管を回路的にみた図が、上図の右下に示した等価回路です。
撮像管の受光部(ターゲット)は、ビジコンの場合、光導電体なので光の強さによって抵抗が変わる可変抵抗体となります。
ビジコンで使われている光導電体は、三硫化アンチモン(Sb2S3)の蒸着膜が使われています。
これは光の強さに応じて電気抵抗が変化する特質を持っています。
この材料は、光が当たらないととても高い抵抗値を示し、光の当たる強度に応じて抵抗値が低下します。
ターゲット面は、電気的には光によって抵抗が変わる可変抵抗(r)と電気容量(コンデンサ:c)を持ったものと見なすことができます。
 
電子ビームは、ターゲットに向かって打たれます。
電子ビームがターゲットに当たると、上図の等価回路のスイッチが閉じたことになり、電荷がターゲット容量に蓄えられます。
電子ビームが走査によって任意のターゲット面から離れるとスイッチが開いたことになり、ターゲット容量に蓄えられた電荷がターゲット抵抗(r)を通して放電します。
ターゲット抵抗は光の強度によって変わるので、明るい場合は抵抗が低くなるため蓄えられた電荷は速く放電して電圧が高くなります。
暗い場合は蓄えられた電荷はほとんど放電しないので電圧は上がりません。
ターゲット面は薄い膜でできていて、電子ビームが照射された部分だけが上の等価回路の働きを持つことになります。
光導電膜を持った撮像管では、CCD固体撮像素子のような画素という概念は明確にはないものの、電子ビームをきわめて細くして精度良くターゲット面に照射させ、ターゲット面がキメの細かい解像力の優れたものであれば電子ビームの走査(スキャニング)によって電子像をきめ細かく読み出すことができます。
この構造からわかるように、撮像管自体にはシャッタという考えがありません。
電子ビームが当たるまで光導電膜は光が与えられ続けます。
したがって、こうした撮像管は短時間露光ができませんでした。
短時間露光を行うには、走査の開始時点でキセノンフラッシュなどを発光させて露光させる必要がありました。
撮像管の歴史は、感度と解像力の歴史でした。
人間の目で見える明るさで綺麗にテレビ画像が撮れることが一番の目的だったのです。
300ルクス程度の室内できれいな色合いでテレビ画像を得ることが大きな目標でした。
その目標に向かっていろいろな撮像管が作られて行きました。
 
また、娯楽用のテレビカメラとは違って、学術用のカメラも開発されました。
これらのカメラは、紫外線やX線、赤外線に感度を持ったものや微弱光下で撮影できるカメラでした。
これらの詳細は、「■撮像管の種類」の所で触れています。
 
■ 撮像管の大きさ 撮像管の大きさを以下に示します。
撮像管の径(呼び径)が現在の固体撮像素子の大きさを表す数値として踏襲されています。
2/3型(2/3インチ)CCDは、18mm(2/3インチ)の径を持つ撮像管の像サイズと同じだったので、これが固体撮像素子に使われました。
多くの撮像管は、1/2インチから1 1/2インチ(13mm 〜 38mm)のものが多く作られ、高解像力のものでは2インチから4 1/2インチ(51mm 〜 114mm)のものが作られました。
撮像管も時代が下るにつれて技術革新によって小さなもので高性能なものが作られ、ENG(Electric News Gathering)用の3管式携帯カメラではφ18mm(2/3インチ)が主流となりました。
 
以下に、撮像管の大きさと像の大きさの一覧を示します。
   
チューブ径
(理論値)
像 サイズ (アスペクト比 4:3)
高さ
対角線
mm
inch
mm
inch
mm
inch
mm
inch
38
3/2
20.32
0.80
15.24
0.60
25.4
1.0
25
1.0
12.7
0.50
9.5
0.375
15.9
0.625
18
2/3
8.8
0.346
6.6
0.260
11.0
0.432
13
1/2
6.5
0.256
4.9
0.192
8.13
0.320
30
6/5
16.9
0.667
12.3
0.500
21.1
0.834
撮像管の径と像サイズの関係
CCD・CMOS撮像素子の素子サイズの呼び名(2/3型、1/2型)に影響を与えた
 
      
 
■ 撮像管の種類  (2008.09.24追記)
撮像管は歴史があるため、たくさんのものが作られました。
以下代表的なものを説明します。
 

 

上の図が撮像管の分類です。
撮像管は大きく分けて、1.の非蓄積形と2.の蓄積形に分けられます。
非蓄積撮像管は、テレビカメラの元祖的存在のもので、1931年に米国のFarnsworth(1906 - 1971)によってイメージディセクタ(Image Dissector)と呼ばれる撮像管が開発されました。
この撮像管は、極めて感度が低くかったため、最初の動画用撮像管という栄誉を得ましたが実用には耐えませんでした。
テレビカメラの最初の原型だったと言えるでしょう。
非蓄積管は、レンズで結ばれた光学像を電子像に変換する際に電子像を保持し続ける能力がなく、光が当たればそのまま光電子を放出していました。
従って、電子像を電気信号として取り出すには、電子管の偏向回路によって電子像を偏向(移動)させて光電面の対極中央部に付けられたマルチプライヤ(電子増幅管)で電子像の部位を取り出していました。
電子増倍管を使ったのは、それほど感度が低かったからです。
電子ビームを振らせて像を走査するのではなくて、検出部が固定されていたため像全体を上下左右に振らせていました。
これは、我々が知る電子ビーム走査による撮像管(ビジコン管など)とは随分と違う方式でした。
しかし、イメージディセクタ管は、電子像の任意の位置を走査することができるので、ランダムアクセスができる特徴がありました。
そうは言っても、非蓄積管の名前の通りとても感度が低かったので、テレビ放送には使われず主に基礎研究として使われました。
科学技術用としては特徴があったので、フィルム像や物体を計測する目的にこの撮像管が使われました。
 
蓄積形撮像管は、電子像が蓄積されます。
蓄積された電子像は、電子ビームを使ってなぞられ(走査され)電気信号として取り出されます。
このタイプでは、電子ビームが走査されるまで電子像が蓄積され続けますので(露光時間が長くなるので)感度が良いという特徴があります。
蓄積形撮像管は、高速度電子ビーム走査方式と低速度電子ビーム走査方式の2種類があります。
高速度電子ビーム走査方式の撮像管が最初に開発され、次第に低速度電子ビーム走査方式に取って代わられるようになりました。
高速度電子ビーム走査方式の高速度とは、電子ビームを加速させる電圧が高くてビームの加速が速いという意味です。
これの代表的な撮像管は、アイコノスコープ(Iconoscope)で、1933年に米国のツボルキン(Zworykin:1889 - 1982)が発明しました。
イメージディセクタが開発された2年後です。
この撮像管は、イメージオルシコンが開発される1946年まで使われました。
テレビ放送開局当時は、この撮像管が使われていたことになります。
イメージオルシコンは、撮像管の操作電圧を低くして取り扱いをよくした高感度のものでした。
この撮像管は、ビジコンが開発される1950年代後半まで使われていました。
 
このようにして、放送局で使われた撮像管は、ビジコン系の光導電形撮像管に収れんして行きます。
ビジコン系撮像管(光導電形撮像管)は、進化を続け感度を上げて行き1990年までテレビ放送局のカメラの心臓として重要な役割を果たしました。
これら連綿と続く撮像管の開発には、米国のRCA社(Radio Corporation of America)が中心的な役割を果たし、初期のほとんどの撮像管の開発にRCA社が関わりました。
  
 
● ビジコン(Vidicon)
先に、撮像管の代表的なものとしてその構造を説明したように(「■ 代表的な撮像管 - ビジコン(Vidicon)管」)、ビジコンは撮像管の基本となったものです。
1950年に、米国のRCA(Radio Corporation of America)社によって開発されました。
ビジコンは、光導電形撮像管と呼ばれるタイプです。
光導電形撮像管とは、半導体に光を照射すると電子や正孔の数が増加して、電気伝導度(導電率)が著しく増加する現象を利用した撮像管です。
光導電体(ターゲット)は、三硫化アンチモン(Sb2S3)の蒸着膜を使用しています。
このターゲットの感度波長は、λ=430〜740nm程度です。
三硫化アンチモンは、非常に安定しているためたくさんの種類のビジコン管が開発されました。
チューブ口径も1/2インチ、2/3インチ、1インチ、1.5インチの撮像管が市販化されました。
ただ、放送局用には、このビジコンをベースにしてより感度のある解像力の良いプランビコンやサチコンなどが使われました。
高速度ビデオカメラ(1972年、米国Video Logic社 Instar、白黒画像)が最初に開発されたとき、カメラの撮像素子にはこのビジコンチューブが使われ120コマ/秒の撮影を可能にしていました。
記録媒体は1インチ巾のビデオテープレコーダで、AMPEX社のドラムヘッドを改造して使っていました。
撮像管の残像もなんとか1/100秒以内に入っていたようです。
 
● プランビコン(Plumbicon)
1962年に、オランダフィリップスが開発した光導電形の撮像管です。
撮像管の歴史は、感度向上の歴史でもあります。
いかに明るくて階調と解像度の高い撮像素子を作るかが、第1命題でした。
ビジコン管が撮像管の代名詞となって以降、この素子に改良が加えられて、幾多の撮像管が作られて来ました。
プランビコンは、ビジコンの流れをくんだ高感度低残像の優秀なものでした。
プランビコンは、光導電体として一酸化鉛(PbO)を採用しました。
しかし、このプランビコンは波長感度に問題がありました。
通常のプランビコンの波長感度は、λ=400〜650nmであり、赤の感度がなかったのです。
赤に弱い撮像管でした。
この感度不足を補うために、赤色感度専用にイオウ(S)を添加した赤増感ターゲットが作られました。
プランビコンは、感度が良く残像特性も良好なことから、初期のカラー高速度ビデオ(1982年、ナックHSV-200、カラー)に使用されました。
 
 
● カルニコン(Chalnicon)
この撮像管は、1972年に日本の東芝が開発しました。
基本構造は、ビジコンと同じですが、ターゲットにセレン化カドミウム(CdSe)を用いて感度と解像力を向上させました。
製品は、1インチタイプと2/3インチ(φ18mm)タイプの二つがあり、ビジコンとの互換性が保たれていました。
感度が高くなった分、残像も多くなりました。
撮像管時代の放送局用テレビカメラは、野球中継(ナイター)や夜間の車の撮影をすると、輝度の高い照明灯やヘッドライトが尾を引くコメットテール(comet tail)現象が見えました。
放送された映像を見ると、1秒以上尾を引いていたので残像は1秒以上あったことになります。
 
● サチコン(Saticon)
1974年に日本の日立とNHKが共同開発しました。
基本構造は、ビジコンと同じでターゲットにセレン(Se)を用いて、その中にヒ素(As)とテルル(Te)を添加したアモルファス膜を採用しました。
感度と解像力がよく放送用ハンディカメラに使われました。
このチューブは、感度と解像力、そして残像を抑えた撮像素子として開発されましたが、1/100秒以下に残像を抑えることができなかったため、高速度カメラ用には使われませんでした。
 
● その他の撮像管
この他にも、たくさんの撮像管があります。
ビジコンの流れをくんだニュービコン、シリコンビジコン、高感度撮像管のイメージオルシコン、イメージアイソコン、などがありました。
 
● SEC管(Secondary Electron Conduction tube)  (2000.09.14)(2008.11.04追記)
SEC管は、科学技術の世界では忘れてはならない撮像管です。
この撮像管は放送業界では使われることはありませんでしたが、宇宙開発を行っていた米国NASAの要請で開発されました。
SEC管は、1969年、NASAがアポロ計画で月に持って行った小型携帯テレビカメラに使われました。
この事実は、宇宙開発にとって映像装置は大変重要な計測と記録要素を持っていたことが伺えると共に、カメラまで独自に開発してしまうほど性能(特に感度)を重視していたことを物語っています。
SEC管は、NASAがWestinghouse社に開発を依頼して1963年に完成させました。
華々しいデビューを飾ったのは、アポロ11号が月に持って行った1969年ですから、撮像管を開発してから6年をかけてシステムの作り込みをしたことになります。
 
■ SEC管の開発背景
NASAは、なぜビジコン管をはじめとした当時の放送局用の撮像管を使わずに、SEC管の開発を決めてWestinghouse社にシステムの開発を要請したのでしょうか。
その理由は、1にも2にも撮像管の感度であったようです。
当時、放送局で使われていたテレビカメラは感度が悪く、夕暮れや曇り空での撮影は困難でした。
当時(1960年)は、テレビカメラを屋外に持ち出すことはめったになく、撮影はすべてスタジオで行われていました。
その理由は、感度ももちろんでしたがテレビカメラの大きさ(重さ)や、取り回しの悪さ、中継車の大きさなども絡んでいました。
日本のテレビ放送で、本格的に屋外での生中継が行われたのは、1959年4月の皇太子・美智子様のご成婚でした。
かなり大がかりの設営のようでしたが、このテレビ中継を境に家庭にテレビ受像機が急速に普及したそうです。
テレビカメラが外に出るようになったのは、サチコンのような感度の高い撮像管が開発されて、電子回路にトランジスタが採用されてコンパク
なテレビカメラができあがった1970年代後半でした。
それまでの屋外撮影では、ニュースソースを含めほとんどの映像記録にフィルムカメラが使われ、フィルム画像をテレシネという装置で電子画像に変換してテレビ放送されていたのです。
それでは逆に、NASAが採用したSEC管を、なぜ放送局は採用しなかったのでしょう。
それは、SEC管は感度が良いものの画質が悪かったからです。
このことから、宇宙開発では画質よりも感度が優先されていた当時の事情を知ることができます。
NASAは、SEC管が完成するまではVidiconを使っていました。
NASAがTIROS(Television Infra-Red Observation Satellite)を1960年4月から次々に大気圏外に打ち上げて、地球上の雲の様子を撮影した時に使われたカメラはVidicon管でした。
このカメラは、500ラインの走査線で10秒の時間で画像を得るものでした。
明るい雲を10秒かけて撮影したのですから、感度的にはあまり問題なかったものと考えられます。
また、NASAが火星に探査衛星を送り(マリナー4号、1962年プロジェクト発足、1965年データ通信開始)、火星の地形を画像に収めるプロジェクトにもVidionカメラを使っていました。
その当時、SEC管は開発の途上にありました。
Vidiconカメラは、200x200画素で6ビットの画像を撮るのに2.5秒もかかりました。
Vidicon管はもちろんアナログ撮像素子ですが、長距離通信の関係上、初めてデジタル画像通信が行われました。
従って、取り込む画像は解像力が低く撮影速度も遅いものでした。
マリナー4号のプロジェクトは、世界で最初のデジタル画像通信でしたから撮影が遅いことは理解できます。
従って、取り込みが遅いためにカメラに要求される感度も高いものは必要なく、Vidicon管で満足できたという当時の事情も理解できましょう。
Vidicon管が明るければ、SEC管の開発の必要などなかったでしょう。
テレビ画像のレートで屋外撮影を行うには、当時のVidiconはまだまだ不十分だったのです。
NASAは、月に人を送り込むとき、月面での活動を逐次地球から観たいという要求を持っていました。
フィルムでは現像を余儀なくされるため、たとえ月に現像機を持ち込んだとしても、これを現像して電子画像に直して地球に送るには時間がかかりすぎました。
こうした理由から、NASAは月面活動撮影カメラを作ることを決めたのです。
ちなみに、アポロ11号では、このプロジェクトのために開発したSEC管によるテレビカメラシステム(ALSC = Apollo Lunar Surface television Camera)の他に、高画質の記録写真を撮るハッセルブラッド、250枚のフィルム撮影をする長尺マガジン付ニコンFカメラ、動画記録用16mmフィルム計測カメラを持ち込んでいました。
ハッセルブラッドカメラは、宇宙飛行士の宇宙服の胸に取り付けられ、押しボタン一つで飛行士が見る方向の視界を撮影できるようになっていました。
ハッセルブラッドで撮影された写真はとても綺麗で、アポロ計画の記録写真として秀逸な業績を残しました。
ただ、これらは当然のごとく現像工程が必要なため地球に戻ってからでないと画像を手に入れることはできませんでした。
その意味でリアルタイムのTVカメラシステムは重要だったのです。
 
■ SEC管の基本性能 SEC管の構造を下図に示します。
SEC管は、撮像管の区分でみると蓄積形であり、低速度電子ビームタイプのイメージ形に属します。
これは感度を重視するタイプです。
この図を見ると、SEC管は大きく分けて2つの部分で構成されていることがわかります。
左側部が像増強部で右側が通常の撮像管です。
右側撮像部は、ビジコン管と同じ構造になっています。
左部の像増強部が感度を稼ぐ部位です。
この部位は、第一世代のイメージインテンシファイア(光増幅光学装置)と構造が似ています。
この部位は光学像を光電面(photo cathode)で受けて電子像を作り、これを加速させてターゲットにぶつけます。
ターゲットは、KClやMgOなどの多孔質高抵抗物質でできていて、数kVの電位で衝突した電子像はさらにここで2次電子を放出します。(1個の像電子が200個程度の電子に増幅されるので感度が上がります。)
ターゲット部は、電子像が衝突する部位が電位「0」になっていて、信号を取り出す面が10〜20Vの電位になっているのでこの電位差によって2次電子が放出されます。
 

上の図から見ても明らかなように、SEC管には高電圧が使われています。
光電面からターゲットに向かって高速(高電圧)で加速された電子が衝突します。
強い光が光電面に当たると、当然ながらオーバーロードになり焼き付きや損傷を起こします。
画質も電子レンズ(左側の像増強部)が付加されている分だけ悪くなります。
 
こうした事情もあってか、SEC管を使用した応用は大きな広がりを見せませんでした。
学術用の高感度カメラは、イメージインテンシファイア(光増幅光学装置)を取りつけた撮像管の方が感度が良く取り扱いも良かったので、時代の要求に合わなくなってしまいました。
 
SEC管カメラは、当時のビジコン管に比べて50倍程度の感度があったと言われています。
当時のスタジオ内の明るさが3000ルクス〜5000ルクスだったとすると、SEC管カメラは、60ルクス〜100ルクスの環境で撮影ができた事になります。
この明るさは夕暮れ時の明るさ、もしくはちょっと暗めの室内に相当します。
 
■ アポロ11号での活躍
アポロ11号が月に持って行った月面テレビジョンカメラ(ALSC = Apollo Lunar Surface television Camera)は、米国Westinghouseが6年の歳月をかけて完成させたもので、カメラの心臓部には同社が開発した高感度撮像管SEC管が採用されていました。
このカメラは、月面活動で見事に大役を果たし、人類が月面に初めて降り立つ瞬間や宇宙飛行士の月面での活躍をリアルタイムに地球に送って来ました。
(リアルタイム映像は、実際は10秒〜30秒程度は遅れたかも知れません。)
当時、中学2年生であった私は、テレビでこの中継を見ていてとても興奮したことを覚えています。
ただ、画質はお世辞にも綺麗とは言えず、階調も粗く動きも10フレーム/秒の映像のためかぎこちなく見えました。
それでも人類が遠い彼方の月面にいて、それを実時間でテレビで見られることの科学の壮大さに心ときめいたものでした。
コンピュータの威力を知ったのもこの頃です。
このカメラの開発にあたりNASAが要求した仕様は、以下のものです。
 
・ 高感度: 月面での暗闇でも肉眼程度の明るさで撮影できること。
・ 耐環境性: 月面での温度、-180℃〜 + 120℃の温度に耐えること。
・ コンパクト: 月まで持って行けるだけの大きさであること。
・ 操作性に優れていること: 宇宙飛行士が月面で持ち運べること。
・ 低消費電力であること: バッテリを消耗しない電力、〜6W。
・ 物体の輝度範囲が広い現場での撮影が可能: 月面の夜と昼を撮影。
・ 感度が高く露光調整も可能: ゲイン調整機能、レンズリモート絞り。
・ 遠く離れた地球へ映像信号が送れること: 500kHzの信号帯域通信。
米国Westinghouse社がNASAのために開発した月面活動用のテレビカメラシステム。 心臓部に同社が開発したSEC管を採用している。 月面での活動を考慮してコンパクトな設計となっている。
カメラは、宇宙飛行士が片手で持って持ち運べる構造とし、月面にスタンドを立ててカメラを固定し、宇宙飛行士の月面での活動を撮影した。
 
 
こうした条件で作られたカメラシステムは、1秒間に10枚の撮像を行い、画面は320本の走査線で構成されるものでした。
(通常のテレビカメラは30枚/秒で525本の走査線を持っているので、撮影速度は1/3で走査線は61%でした。)
また、スロースキャンモードにすると1.6秒をかけて1280本の走査線(4倍の走査線)で撮影を行う設計にもなっていました。
しかし、このモードは実際の月面活動では使われなかったようです。
カメラは、24V〜32Vのバッテリで駆動し、消費電力は6.5Wでした。
宇宙へ持って行く電子機器にとって電源消費は最も気になる条件です。
宇宙船には潤沢に電気を供給するバッテリがなく、消費される電力は熱になるので消費電力を食う機器は自然冷却もままならずやっかいな問題となります。
(次世代の自動車として期待されている水素バッテリは、アポロ計画で実用化されたものです。アポロ計画での月着陸船の電源は太陽電池と水素バッテリでした。
ウェスチングハウス(Westinghouse)社が開発したカメラの大きさは、269mm(L) x 165mm(W) x 86mm(D)であり、その重さは3.29kgでした。
これは、当時としてはとてもコンパクトなものでした。
当時、放送局で使われていたカメラは180kgもの重さがありました。
実に54分の1の軽量化を達成したのです。
ウェスチングハウス社は、カメラを月に持って行くために撮像管自体の他にカメラ電気回路をトランジスタ化し、これをさらに集積化しました。現在では当たり前のようになっているハンドヘルド(携行)型カメラも、集積回路(IC)が未熟であった当時としてはこれを作り上げることそのものが画期的な事だったのです。
月面活動で使われたカメラのアナログ映像信号は、通常のNTSC信号で送られずに、それよりも遙かに品質の悪い走査線本数と撮影速度に設定されました。
その理由は、月から地球に送る通信回線帯域の問題があったからです。
500kHzという低い送信帯域のために粗い画質でしか送れなかったのです。
これはNTSC規格の放送における4.2MHzの通信帯域に比べて1/8.4倍の通信量でした。
従って、この帯域に抑えるため画像も間引きせざるをえなかったのです。
地球に送られてきた月面からの(アナログ)映像は、地上受信局でいったん10インチ(254mm)の特殊スロースキャンモニタに映し出され、これをビジコンカメラ(モデルTK22)で再撮影して(一種のテレシネ作業で)通常のNTSC映像信号に直して放送局に送り、全世界に月面活動の映像を流しました。
 
  ● ハーピコン(HARPICON)(HARP撮像素子) (2000.07.28)(2008.09.23追記)
HARP管は、1985年に日立とNHKが開発した高感度、低残像、高解像力の撮像管です。
HARPICONは日立の登録商標なので、現在ではHARP管と言う呼び名が一般名詞となっています。
HARP管は、当初、日立製作所が製造していましたが、現在(2008年)では、電子管製造で有名な浜松ホトニクス(株)が引き続き製品の製造、開発を行っています。
浜松ホトニクスでの商品名は、APイメージャーです。
 
HARPは、High-gain Avalanche Rushing amorphous Photoconductorの略で、光に感度のあるアモルファスセレン(a-Se)膜をアバランシェ増幅ができるようなターゲットとして作り上げたものです。
アモルファスセレンは、1974年に日立が開発したサチコンと同じ光導電膜です。
1995年当時のHARP膜は、約25ミクロンの厚さで、この膜の間に最大2,500Vの電圧を印加しておくと光の増幅作用が最大約6,000倍に達しました。
この値は、高感度撮像管で有名な撮像管サチコンの600倍の感度を持っていると言われました。
 
HARP管は、撮像管としてはおそらく最後で究極的なものと思われます。
感度が非常に高く、暗い被写体の撮影に威力を発揮します。
深海の観察や、オーロラ、日食の撮影、夜間動物の観察などに使われています。
報道番組においても、1995年6月に函館で起きた飛行機乗っ取り事件で薄暮の飛行場撮影にこのカメラが活躍しました。
NHKのハイビジョン用カメラとして、また高速度カメラ用としても高感度、高解像力、低残像の特性が活かされました。
ただ、HARP管は温度管理などメンテナンスに細心の注意が必要であり、一般的な使用では(雑な使用をすると)特性がでなくなってしまうため、専門家を擁する分野で使われるもののようです。
また、撮像管ですから電子シャッタ機能はなく、露光時間は1/撮影速度となります。
 
HARP撮像素子の開発は、1980年代、NHKがプロジェクトを進めていたハイビジョンカメラ用として出発します。
ハイビジョンカメラでは、感度が良くて解像度の良い撮像素子の必要性に迫られていました。
特に感度の要求の点から、固体撮像素子よりも光導電型撮像管が今だ有利という判断によってこの撮像管の開発がスタートしました。
HARP管は、1985年に開発されてから4回の改良が施されました。
改良は主に光電変換膜厚で、開発当初は2umであった膜厚を2003年の4代目では35umの厚いものにしました。
これによりサチコン管と比べた感度が1985年の約10倍から約1,000倍に向上し、残像も低減されました。
残像については、1985年当時は、50msで4.6%の残像があったそうです。
 
1992年、キヤノンは、2/3インチHARPICONチューブを用いた放送局用の高速度カメラを開発しバルセロナオリンピックに投入しました。
このカメラは、180コマ/秒の撮影ができました。
シャッタ機能は、撮像管自体にシャッタ機能がないので、ハーピコン光電面の前に取り付けた同期回転円板シャッタを使って1/3,600秒を実現していました。
解像力は800本以上、撮影感度はASA(ISO)換算で1500でした。
ちなみに、このカメラの記録にはICメモリが使われました。
ICメモリと言っても現在(2008年)のように大容量で高速のものがなかったため、60MHzの記録帯域を確保して5400枚の記録を行ったため大がかりなシステムになり、メモリ部はラックマウント形式で210kgの重さがあったそうです。
1992年 ナック(現:ナックイメージテクノロジー)からもハーピコン管を使った高感度高解像力ハイスピードカメラが開発され、顕微鏡撮影分野などに使用されました。
   
 
■ 電子管によるその他の撮像素子  (2000.09.14)(200810.24追記)
撮像管の時代が終わって、CCD・CMOSなどの固体撮像素子が主流になっている現在においても、特殊な分野では電子管技術を用いた撮像素子が使われています。

1960年代〜1990年代に活躍したフレーミング式イメージコンバータチューブ。 50ナノ秒の露出時間と、 20,000,000コマ/秒の撮影が可能であった。 高速度画像は、イメージコンバータチューブ蛍光面(左画像右端)に投影された。 蛍光面に、一度に最大24枚の画像を次々とシフトしながら撮影。 時間間隔は最小50ナノ秒。 これを蛍光面に密着させたインスタントフィルムで記録した。
ストリーク撮影も可能。
      イメージコンバータカメラで撮影した   衝撃波の高速度撮影(1994年)。   撮影速度100,000コマ/秒。   被写体は、アジ化銀(一種の爆薬)の水中爆破。   2000年までは、100,000コマ/秒以上の高速度撮影は、
  イメージコンバータカメラでなければ不可能であった。
● イメージコンバータ管(Image Converter Tube、転像管)
転像管とも訳される特殊撮像管です。
高感度撮像装置のイメージインテンシファイアも一種の転像管です。 イメージコンバータ管は、真空管の両面が光電面(入力面)と蛍光面(出力面)から構成されていて、光電面に入射した光学像は素子内部で電子像に変換(イメージコンバート)されます。
この電子像が蛍光面に当たって(ブラウン管のように)可視光像になります。
これは、電子レンズを使った像変換素子と言うこともできます。
 
転像管の利用価値はどこにあるのでしょうか。
光学像を電子像に変換し、再び光学像に直すという回りくどいやり方をなぜ取るのでしょうか。 その理由は、転像管を使った電子像変換には以下に示す特徴があるからです。
 
1. 可視光以外の光を可視化することができる(紫外光、赤外光、X線)。
 
2. 電子レンズと偏向回路によって高速シャッタリングを行うことができる。
及び複数枚の高速度画像が得られる。
(フレーミングで20,000,000コマ/秒、ストリークで数ピコ秒/mm)
 
3. 電子レンズによって像強度の増幅を行うことができる(高感度)。
 
この特徴によって、1960年代からイメージコンバータチューブは発展を遂げ、いろいろな派生転像管が作られました。
右に示すイメージコンバータチューブは、20,000,000コマ/秒のフレーミング撮影ができる超高速度カメラ用で、1990年に開発されたものです。
フレーミング(framing)と言うのは、ストリーク(streak)という撮影法の対になる言葉で、2次元の拡がりを持った通常の画像のことを言います。
ストリークというのは、流し撮り写真のことで、身近な例では競馬の写真判定や、陸上100m走で使われる撮影手法です。
固体撮像素子のラインセンサーもストリーク撮影法の顕著なものと言えましょう。
イメージコンバータカメラのストリーク撮影は、ラインセンサーと比べて桁違いに速いラインの取り込みを行います。
 
高速度カメラ用のイメージコンバータチューブは、1960年代から英国、米国、ソビエト連邦、日本で開発、製作が行われていました。
1960年から2000年までは、超高速度カメラ(10,000コマ/秒以上)は、イメージコンバータチューブを使ったものが一般的でした。
右に示すイメージコンバータチューブは、エンベロープにセラミクスチューブを使うというユニークなものでした。
 
イメージコンバータカメラは、フレーミング撮影よりはピコ秒の時間分解能が得られるストリークカメラに大きな特徴が見いだされて、現在も超高速現象を解明する計測装置としてプラズマ発光現象解明の分野やレーザ励起現象分野で使われています。
  また、以下に述べるX線イメージャイメージインテンシファイア(I.I.)も、転像管から進化を遂げたものです。 光電面を持つ撮像管は、テレビカメラの撮像管としては生きる道が閉ざされたものの、こうした特殊な分野では今も大切な役割を担っています。
 
 
● X線イメージャ(X-ray Imager) (2008.11.05追記)
X線は、量子エネルギーのきわめて高い光であるので、可視光に反応する光電膜では電子像に変えることはできません。
また、X線は直線性が強いため、容易に屈折、反射を起こしません。
このことは、X線を使った撮影はレンズやプリズムなどの光学素子が使えないことを意味しています。
したがって、X線イメージャを使わないX線撮影では、大きな記録面を持った(X線に感度を持つ10cmx12cmなどの銀塩フィルムによる)直接撮影法がとられていました。
しかし、小さいフィルムサイズで大きな撮影部位を得たい場合や(大きな乾板フィルムは高価で、かつ取り回しが悪い)、たくさんのX線陰影撮影を行いたい場合、または、短期間に集中してたくさんのX線撮影を行いたい場合は(1秒間に複数枚の動画像を得たい場合)、以下に示すようなX線イメージャ(間接撮影)を必要としました。
医学分野でのX線撮影には、このようなX線イメージャが良く使われて発展をしてきました。

X線イメージャは、以下の3つの部位から成り立っています。すなわち、

(1)エネルギーの高いX線エネルギーをいったん可視光に変えるシンチレータ部、
代表的なX線イメージャの外観。 入力面は球面形状でアルミ薄板か ベリリウムで覆われる。
大きさは対象物の大きさで決定される。
資料提供: 浜松ホトニクス(株)
(2)可視光像を電子像に変える転像管部、
(3)転像管の出力部(蛍光面)で再度可視光になった像を撮影する撮像素子部、
 
の3つの部分から構成されます。
 
(1)シンチレータ(Scintillator)部
X線は、量子エネルギーの高い光です。
この光エネルギーを準位の低いエネルギー(可視光)に変換するのがシンチレータ(Scintillator)と呼ばれるものです。
X線は紫外線エネルギー以上に量子エネルギーが高いので、いろいろな物質を励起させる力を持っています。
しかしエネルギーが高いので励起させずに透過してしまうこともあります。
従って、使用するX線エネルギーに対して効率よくエネルギーを吸収して可視光を発光するものが求められます。
こうした物質の中で最も効率よく可視光を励起し、物質自体の粒子も細かくて、かつ使用環境で安定した構造を持つものが、ヨウ化セシウム(CsI)です。
このシンチレータは、X線によって励起して420nmにピークを持つ青色の可視光の蛍光を発します。
この発光は、転像管の光電面との相性がよく効率の良い電子変換ができます。
また、ヨウ化セシウムは、沃素とセシウム双方の原子量が大きいためX線エネルギーを吸収しやすいという性質から理想的なシンチレータと言えます。
従って、X線のシンチレータとしては、この蛍光剤が最もよく使われます。
ヨウ化セシウム(CsI)がX線I.I.のシンチレータとして使われるようになったのは、1963年以降で、1972年から医療用として米国Varian社、オランダPhilips社、フランスThomson社、ドイツSiemens社が採用を始め、日本でも1974年に東芝、1976年に島津製作所が市販化しました。
CsIがなぜこれほどまでに認められるようになったかというと、材質の原子量の重さやX線吸収係数、発光ピークの特性もさることながら、非常に緻密に(ぎっしりと)蒸着膜を形成できることにありました。
CSIは基板上にほぼ垂直に結晶構造(断面が10um以下)を作ることができるので、それまでの沈殿法やスラリー法の膜状塗布よりも高密度のシンチレータ部を形成できるようになったのです。
入力部のシンチレータがなぜ曲面を描いているかというと、転像管部の電子レンズが凸レンズ効果だけなので、この電子レンズでは像面湾曲収差が取りきれないからです。
そのためにX線像を受ける入力部(シンチレータと光電面)は曲面形状になっています。
入力窓は、窓材の保護のためにアルミニウムかベリリウムで覆われています。
通常はアルミニウムの薄膜が使われますが、弱いX線光源を使う場合には、この窓材部分で吸収が起きてしまうので、アルミニウム材に代えてベリリウムが使われます。
しかし、ベリリウムは高価なことと毒性が強い材料のため、弱いX線エネルギー用や小さい口径のX線イメージャー用に限って使われます。
 
(2) 転像管部
転像管は、シンチレータ(CsI)によって青色(420nmピーク)蛍光像を背後で直接コンタクトしている光電面で受けて、電子像に変換し、蛍光面で再び可視光像に変換するものです。
転像管をなぜ使うのかと言えば、以下の理由によります。
 
1. X線像をカメラで撮影できるように光学像を縮小するため。
2. 縮小した画像を動画撮影を行うために、フィルムカメラや撮像管、CCDなどの撮像素子を取りつけるため。
3. X線が微弱なために(つまり、強いX線光源が作れない、または、被爆が大きいため強い光源が当てられないために)X線像の光増幅を行う必要がある。
 
転像管は真空管ですから装置には高電圧がかかります。
転像管の撮影倍率は、シンチレータ部の入力窓の大きさと出力蛍光面の大きさの比で表されます。
 
M = a / A
   M :撮像管の撮影倍率
   a :出力蛍光面の大きさ
   A :入力部(シンチレータ部)の大きさ
 
X線イメージャの入力面径は、10cm〜57cm(4インチ〜22.5インチ)が市販化されていて、大型のものほど医療用(消化器、循環器)に製造されています。
出力蛍光面の大きさは、φ60mmが一般的です。従って、X線イメージャの撮影倍率は、
 
M = 1/1.7 〜 1/9.5
 
となります。
蛍光面はφ60mmと大きいので、CCDでこれだけ大きい素子はありませんから、直接ファイバーカプリングをせずにリレーレンズを使って縮小して撮影を行います。
 
(3) 撮像部
撮像部は、転像管で形成された光学像を記録するためのものです。
1990年代までは、フィルムカメラや撮像管カメラが使われていました。
最近では、CCDカメラが使われています。
転像管の出力部は可視光を発する蛍光面になっているため、ここで作られる光学像をリレーレンズによってカメラに導きます。
リレーレンズに代えて光ファイバーで直接カメラとカプリングする方法もあります。
この方が光の転送効率が良いので1桁以上も明るくなります。
しかし、ファイバーカプリングの場合は、以下の問題がありますので、取り扱いには注意が必要です。
 
1. ファイバー繊維系の大きさとCCD撮像素子の画素サイズの選択を間違えると、解像力が極端に落ちる。
2. 両者の兼ね合いでモアレ(干渉縞)が現れる。
3. ファイバーカプリングでは、X線エネルギーの入射光路とカメラの撮像面が直線に並ぶために、
  X線エネルギーがシンチレータ部で十分な吸収が行われない場合、
  撮像面に直接照射される危険があり撮像面にダメージを与えることがある。
   
 
● イメージインテンシファイア(Image Intensifier)
イメージインテンシファイア(Image Intensifier、I.I.)は、超高感度の撮像管素子です。
光増幅の度合いは、1,000倍から100,000倍の性能を持っています。
しかし、1,000倍もの光増幅をすると言っても、日中の明るさの対象物を1,000倍に明るくできるわけではありません。
イメージインテンシファイアの出力(蛍光面)の明るさは限度があるため、蛍光面の明るさに比べて1,000分の1程度の暗い対象物の明るさを増幅できるという意味です。
I.I.の蛍光面はそれほど明るくありませんので、つまるところ非常に暗い物体を人が見えるぐらいに明るくする装置と考えてよいと思います。
この装置は、放送局用のテレビカメラに積極的に使われることはありませんでしたが、学術用(微弱光検出)や夜間などの低照度条件下の撮影に使われました。
イメージインテンシファイアは、1940年代前半、米軍の要請によってテレビカメラを開発していたRCA社(Radio Corporation of America)のツボルキン(Vladimir Kosmich Zworykin:1888 - 1982)が開発しました。
この装置は、夜戦用の秘密兵器として開発が行われ、暗視装置(Night Vision Device = NVD)と呼ばれました。
現在も軍事戦略用の有効な装備品としてNVDの改良、開発が続けられています。
現在では4世代目のものが作られています。
左に示した図は、第3世代の近接型イメージインテンシファイアを光ファイバーでCCD素子とカプリングした高感度カメラの構造図です。
ICCD(Intensified CCD)という呼び方が一般的です。
近接型というのは、インテンシファイアの入力面(光電面)と出力面(蛍光面)が隣り合うくらいに薄くなっている構造を言います。
従来のインテンシファイアより薄くなった(近接した、proximity)、という意味で近接型イメージインテンシファイア(Proximity focused Image Intensifier)と言います。
このタイプでは、像の増幅は、装置中央部に配置されたMCP(マイクロチャンネルプレート、Micro Channel Plate)で行われています。
MCPは、0.5mm程度の薄いガラス板で、これにφ10〜12μmの孔が無数に空けられ(φ25mmで数百万個)、両端に100V〜900Vの電圧をかけ光電面からの光電子を1,000倍程度の2次電子に増やすものです。
印加される電圧が高いほど二次電子がたくさん放出されるので増幅が大きくなります。
I.I.(あいあい)は、開発当初、夜間の人の目を助ける道具で作られたのが、テレビカメラやフィルムカメラの前面に取り付けられる記録装置になり、近年ではファイバーで固体撮像素子と結合される製品となりました。
明るさの調節は、ゲインによって増幅率を変えています。
ゲインはマイクロチャンネルプレートに印加する電圧の調整で行います。
また、光電面に加える電圧をパルスにして、パルス電圧が加わったときだけ光電面からの電子が放出されるようにすると、短時間の撮像が可能になり電子シャッタの働きをするようになります。
電子シャッタは、数十ナノ秒から数ミリ秒まで任意のシャッタ時間設定が可能です。
  イメージインテンシファイアの詳しいことは、光の記録原理 その4 - 光増幅光学装置 に載せていますので、そちらを参照して下さい。
   
 
● 電子顕微鏡(Electron MicroScope)
電子顕微鏡もれっきとした電子管であり、撮像管の一種です。
光学顕微鏡では解像しない極微少物体の拡大を得意としています。
電子顕微鏡では、拡大したい対象物を電子管(真空管)の中に入れなければならないので、揮発するもの(水分を含んだもの)や生きた生物を見ることはできません。
電子顕微鏡の構造を見てみると、撮像素子の原型であるフライング・スポット・スキャナー(FSS、Flying Spot Scanner)に多くのアイデアを得ていることがわかります。 電子顕微鏡は、大きく分けて、  
 
・ 透過型電子顕微鏡
(Transmission Electron Microscope、TEM)  
・ 走査型電子顕微鏡
(Scanning Electron Microscope、SEM)
 
の2種類に分けられます。
 
■ 透過型電子顕微鏡(TEM)
透過型電子顕微鏡(TEM)は、分解能の高い拡大画像を得ることができ、0.3nm程度までの識別ができます。
光学顕微鏡では100nmが限界なので、光学顕微鏡よりも1,000倍の分解能を持つことになります。
電子顕微鏡の分解能は、電子ビームが試料に照射する加速電圧とビームの絞り角度で決まるので、電子ビームを100kVで加速し、0.01rad( = 0.573 °)で集束させた時に0.3nmの分解能を得ることができます。
0.3nmの大きさは、重い金属原子の直径に相当するものです。
電子顕微鏡の分解能をさらに上げるには、電子ビームの絞りをさらに小さくするか、もしくは加速電圧を上げる必要があります。
あまり強く電圧を設定しますと、試料を破壊しますので加速電圧にはおのずと限度があります。
分解能は、透過型電子顕微鏡(TEM)の方が走査型電子顕微鏡(SEM)よりも1桁ほど優れています。
透過型電子顕微鏡は、試料中を電子が通過して、これをさらに拡大して蛍光板に投影します。
光学顕微鏡の透過型顕微鏡(生物顕微鏡)と似ています。
従って、試料は電子ビームが透過できるための薄さ(数100nm)でなければなりません。
厚い試料は透過型電子顕微鏡では使用できません。
また、試料は真空容器に入れられますから、試料作りは結構手間のかかるものとなります
 
■ 走査型電子顕微鏡(SEM)
透過型電子顕微鏡に対し、走査型電子顕微鏡(SEM)は試料の表面を拡大するので試料の厚さは透過型電子顕微鏡より厳しくありません。
分解能は、透過型電子顕微鏡より1桁低く(3nm)なるものの、物体表面を深度深く映像化することができます。
この深さは、光学顕微鏡の100倍以上と言われています。この特徴を活かして、病原菌やウィルスの発見など光学顕微鏡では難しい微小生物や、金属の微小表面の立体的な観察に威力を発揮しています。
走査型顕微鏡では試料に電子を照射し試料から出される2次電子を検出するため、二次電子を放出しやすい試料にする工夫が必要です。
このため試料を樹脂で固めて型を起こし、これに金メッキ処理を施して真空装置に入れ、これを観察するやり方をしています。
いずれにしても、生きたものや液体成分を伴う試料は扱うことができません。
電子顕微鏡は、電子ビームを試料に直接当てますので電子ビームによって試料が破損することがあります。
高い電圧を加えるほどその度合いが大きくなります。
分解能を上げるには、加速電圧を高くしなければならないので両者は相反することになり、最適な条件出しが重要な運用上のテクニックになります。
また、当然のことながら試料上を電子ビームが走査しますので映像を作るには時間がかかり、走査におよそ1〜2分程度かかります。
透過型電子顕微鏡(TEM)は、試料上を電子ビームが走査するという手順がないので、拡大画像はリアルタイムに得ることができます。
  【歴史】 透過形電子顕微鏡は、1931年にドイツベルリン工科大学のエルンスト・ルスカ(Ernst August Friedrich Ruska、1906 - 1988)とマックス・クノール(Max Knoll、1897 - 1969)によって開発されました。
ルスカは、その後もテレビジョンと電子顕微鏡の研究に関わり、電子顕微鏡開発後の55年経った1986年、ルスカ80歳の時に電子顕微鏡開発の功績でノーベル物理学賞を受賞しています。
同じ研究に従事したクノールは、ノーベル賞の対象になる前にこの世を去っていて、彼の没後17年にしてやっとルスカが受賞の栄誉を与えられました。
 
右上に示す走査型電子顕微鏡は、1937年ドイツの物理学者マンフレッド・アルデンネ(Manfred von Ardenne、1907 - 1997)によって開発されたものです。
アルデンネは、1920年に以下に示すフライング・スポット・スキャナーも考案しています。
このことから、走査型電子顕微鏡はテレビカメラ技術の一環として着想されたことが伺えます。
アルデンネは発明家で、たくさんの発明をして特許を取得しています。
しかし、彼の発明の多くは熟成させるまで関心を寄せることがなかったようです。
走査型電子顕微鏡も、実用機ができるのは1965年になってからです。
イギリスケンブリッジ大学のチャールズ・オータリー(Charles Oatley、1904 - 1996)らの手によって、装置に改良が加えられて、やっと使えるものになったと言われています。
走査型電子顕微鏡を開発するにあたっては、開発の難しさの一つに像を鮮明に形成す技術がありました。
ケンブリッジ大学のOatleyは、E-T検出器(Everhart - Thornley Detector)や付帯設備を改良して走査型電子顕微鏡の実用化にこぎ着けたのです。
彼が実用機を作るまでの間でも、他の研究者、例えば、米国RCAのツボルキン(Zworykin)らも開発に関わっていました。
しかし、当時はテレビカメラの開発の方が急務であったらしく、電子顕微鏡の改良には深く関わり切れなかったようです。
ツボルキンは、シンチレータから得た映像信号をファクシミリ手法を使って画像化していました。
ブラウン管上に画像を表示させるようにしたのは1960年代後半になってからです。
 
   
 
● フライング・スポット・スキャナー(Flying Spot Scanner、FSS)
走査型電子顕微鏡の原型を、フライング・スポット・スキャナー(FSS)に見ることができます。
FSSは、テレビカメラの初期モデルとして着想されました。
この発想が、走査型電子顕微鏡とテレシネ装置に生かされました。
 
右図に示したのがフライング・スポット・スキャナー(FSS)の原理図です。
図の上部にある高精度CRTが、走査型電子顕微鏡の電子銃に相当します。
そして、スポットビームを対象物に投影する結像レンズが走査型電子顕微鏡の電子レンズに相当します。
CRTのラスター走査は、結像レンズを介して対象物上にビームが走ることになります。
この装置は、撮像管によるテレビカメラができるよりも前の1920年代に発案され、テレビシステム開発における貴重なデータを提供しました。
この装置の発案は、走査型電子顕微鏡を発明したドイツ人発明家マンフレッド・アルデンネ(Manfred von Ardenne、1907 - 1997)です。
FSSと走査型電子顕微鏡は同一人物が発明したのです。
 
FSSは、撮像管が開発された後もテロップ読み取り装置やフィルム画像の読み取り装置(テレシネ、Telecine)として使われ続けて来ました。
レーザが発明されてからは、高精度CRTに代えてレーザビームで試料を走査するFSS装置が開発されています。
右図の原理図が示すように、物体は凹凸の激しいものは撮影しにくく、また、発光体や屋外風景などの撮影は不可能です。
つまり、平面的な対象物、文書やスライドなどの撮影に適したものでした。
また、この装置は、真っ暗な部屋で行うか装置を全暗室状態のカバーを被せる必要がありました。
その意味では、この装置がテレビカメラとして主役の位置に座るのは困難でした。
 
FSSに使われた高精度CRTは、輝度が高くてビーム径が小さく、なおかつ残像の少ない平面度の良いものが望まれました。
最盛期のFSSに採用されたCRTは、蛍光面にP24と呼ばれる蛍光剤を使用していました。
これは、ピーク波長が500nmで、残光は1.5usで10%の減衰を持ち、100uAのビーム電流で100 ft-L(フートランバート)の輝度が得られるものだったそうです。
100 ft-Lは、照度で換算すると6,000ルクス程度の明るさと同じになります。
この明るさをF/2.0の明るさを持つビーム結像レンズで試料に照射すると、試料面は60ルクスの明るさで照射されます。
60ルクスの被写体はかなり暗いものです。
これは薄暗い室内の明るさです。
これは、1920年〜1960年当時の撮像管ではとても撮影できないもので、高感度のフォトマルを使わないと試料から散乱するビームスポット光を検出できなかったろうと想像します。
被写体を検出するフォトマルチプライヤは、高感度でS/Nが良く暗電流の低いものが使われました。 この装置は、映画をテレビで上映するときに、フィルム像をテレビ信号に変換する装置(テレシネ)として使われました。
フィルム像は、透過像なので反射像に比べて撮影条件が1桁以上楽になります。
     
 
     
 
■ 画像信号を記録する (2007.11.22)(2008.01.26追記)
 
カメラで撮像した画像を記録するにはどのような方法があるのでしょうか。 テレビカメラが登場した1940年代、テレビカメラで撮らえた画像を記録する装置(例えば、ビデオテープレコーダ装置)はありませんでした。
テレビカメラは、家庭の受像機(ブラウン管)と直結していたのです。
つまり、テレビカメラで撮影した画像はそのまま電波として送信され、時間の遅れなく各家庭に一方通行で送られていました。
放送局から家庭の受像機までの間には、画像を保存するという手だてはありませんでした。
したがってニュースなどはもちろんドラマやトーク番組などはすべて生放送でした。
当時、映像を記録する手だては映画しかありませんでしたから、現場で起きたニュースなどは映画フィルムで撮影して現像所に送り、現像から上がったフィルムを映写して、それをテレビカメラで再度撮影してテレビに流すという方式(テレシネ = Telecine放送)を採用していました。
この方式は、ビデオテープレコーダが開発された後も続き、1970年後半まで主力でした。
1970年後半になると、テレビカメラと映像記録媒体である磁気テープがコンパクトになって屋外に持ち出すことが可能となり、1980年以降、録画装置一体型ENGカメラ(Electronic News Gathering)が発達します。
ベータカム = Betacamが1982年に発売されてからは、急速にビデオの時代になっていきました。
家庭用でも、1989年に発売された8mmビデオテープとCCD撮像素子を一体化した Handycam TR-55の開発と成功によって、真のビデオの時代が到来しました。
   
 
ここで動画像の歴史的な流れを整理しておきましょう。
 

 

上の表からもわかるように、動画は映画から始まりました。
その後、テレビ放送が始まりテレビ放送規格が大きな位置を占めるようになり、動画像の代表的なフォーマットの一つになっていきました。
そしてさらに、パソコンの発展に伴ってパソコンに有利な動画像のフォーマットが規格立案されて行きました。
 
要するに、動画像は大きく分けて3つの流れがあると考えます。
三者は互いに影響を与えながら、しかしそれぞれの事情を持ちながら発展してきました。それぞれの事情とは、
 
・ 映画が24コマ/秒の上映速度であり、
・ テレビ放送が30フレーム/秒、525本走査線(デジタルハイビジョンでは縦1080画素)の電波放送であり、
・ パソコンがCPU性能を考慮した再生速度可変前提の再生動画像である
 
という事情です。
この中でパソコンの動画の規格が比較的ルーズです。
 
パソコンで動画づけを初めておこなったのはアップル社です。
同社が開発したQuickTime(クイックタイム)という規格は、コンピュータの性能に合わせて再生速度を変化させながらメディア(画像、音声、テキスト)の同期再生を行うという技術です。
この規格には、テレビ放送規格で大前提となっている30フレーム/秒の再生速度を守ろうという考えは全くありませんでした。
この約束を守ろうとしたら、当時(1991年)のデジタル技術ではとてもできなかったに違いありません。
640x480画素のデジタルカラー画像を1秒間に30枚送るためには、221.18Mbpsの速度が必要です。
この速度はギガビット転送の2008年においても苦しい性能です。
ネットワーク転送は、交通渋滞に似たデータ転送渋滞があったりエラー発生が伴うため、ギガビット転送でも十分な転送帯域を確保できません。
この問題はビデオ圧縮技術の発展によってデジタルテレビ放送やデジタルビデオレコーダ、パソコン動画に光明をもたらします。
ビデオ圧縮は、通常のデータ量の1/100〜1/200で動画像を伝送することができるので通信上とてもありがたい技術となりました。
       
 
▲ テレシネ装置(Telecine) (2008.08.09記)(2008.10.25追記) テレシネ装置とは、映画フィルムをテレビ信号に変換する装置です。
映画フィルムをテレビで放映する場合、映画フィルムを特殊映写機に掛けて、それを特殊テレビカメラで再度撮影しビデオ信号に変換して放送していました。
テレシネ装置が使われたテレビ番組は、映画番組やコマーシャル、ドラマ、ニュース番組でした。
ビデオテープレコーダの性能が上がらなかった1970年代までは、録画によるテレビ放送の中心は映画カメラによるフィルム撮影でした。
フィルムで撮影された動画像をテレシネ装置で映像変換して放送していたのです。
映画は24コマ/秒で撮影して上映されるので、劇場映画をテレビで放送するときにはテレシネ装置を使います。
もっとも今は、フィルムで撮影した動画像もデジタル画像におき変えられて保存されるので、デジタル画像を映像信号に直してテレビ放送に乗せるようになっています。
 
映画とテレビの撮影方式には大きな問題がありました。
映画フィルムは1秒間に24枚の撮影を行って再生しています。
しかし、テレビ放送(北米と日本のNTSC方式)では、1秒間に30フレームの画像を送っています。
テレシネ装置では、両者の撮影速度の整合性を取らなければなりません。
映画フィルムを24コマ/秒で再生しながら、テレビカメラ30フレーム/秒で撮影し直す機構をテレシネ装置に持たせねばなりませんでした。
 
フィルム画像を4コマ送る間に、テレビ画像は5フレームの映像を作らなければなりませんでした。
【2-3プルダウン方式】(2-3 pull down method)
映画とテレビの再生速度を調整して、映画フィルムをテレビで不都合なく放送できるようにするテレシネの方式が、2-3プルダウン方式と呼ばれるものです。
この方式は、簡単に言えば、フィルムの映写速度を一定速度で再生するのではなく、コマ毎に若干変えてテレビの再生速度に合わせる方法です。
つまり、映画フィルムの最初の1コマ目をテレビの2フィールド分で取り込ませて、次の2コマ目をテレビの3フィールド分で取り込ませる方式です。
従って、映写機は、1コマ目である奇数コマを1/30秒(テレビ画像の2フィールド分)で送って、2コマ目の偶数コマを1/20秒 = 3/60秒(テレビ画像の3フィールド分)で送るという機構を持たせています。
映画の画像送りを1コマずつ1/60秒の時間差で交互に変えているのです。
このように、映画フィルムのコマをテレビ画像の2フィールド分、3フィールド分、2フィールド分、3フィールド分、----- という時間間隔で交互に送っていく方法を2-3プルダウン方式と呼んでいます。
プルダウンというのは、フィルムの掻き落としのことを言います。
フィルムのパーフォレーション(孔)に掻き落とし爪が入って、フィルム1コマずつ送る機構のことを掻き落としと言っていました。
テレシネの映写機では、1コマ目と2コマ目では、
 
1/30 - 1/20 = -1/60 (秒)
 
1/60秒だけ長く時間をかけて掻き落とされますが、2コマ分の合わせた時間は、
 
1/30 + 1/20 = 5/60 = 1/12
 
となって、1秒間で24枚送られる映画のコマの2枚分の時間と同じになります。 また、この方式では、映画の2コマ分がテレビの5フィールド分に相当しますので、映画24コマでは、
 
    5 (フィールド/2コマ) x 12 (2コマ/秒) = 60 (フィールド/秒)  
となって、映画の24コマ/秒でテレビの30フレーム/秒(60フィールド/秒)の再生速度と整合性がとれることになります。(右図参照。)
 
このことから、以下のことがわかります。
 
1. テレシネの映写機は定速コマ送りでなく1コマずつ送り時間を変えていた。
  送り時間は、奇数コマが1/30秒で、 偶数コマが1/20秒。
2. テレビの1フレームの画像は映画のコマと対をなしておらず、 2フィールドで構成される
  テレビ画面の4割(5フレーム分のうち2フレーム分)は映画のコマの前後の映像を混ぜ合わせて
  フィールド画像として取り込んでいる。従って、テレビの1フレーム(2フィールド)で構成される
  画面の4割は、映画の前後のコマの相乗りの混ぜもの画面となる。
 
テレビ画面を静止させたら二つの画像が重ね合わさった画面が出るはずです。
しかし、逆に、混ぜものにした方が連続して見た場合にスムーズに見えます。
マンガなどで、動きのある絵を描くときわざと動きの方向に流しボケを作るのと同じ考えです。
そうしないとギクシャクした画像になります。
仮に、映画の3コマをテレビの3フレームに当て、映画の4コマ目をテレビの2フレーム分に当てて整合性を取ったとしたら1秒間に6回の割合で2枚同じ画面が出てきてギクシャクした映像になってしまうでしょう。
ギクシャクした画像を抑制した代わりに、テレシネの画像は、一枚一枚の画像の時間間隔が不均一で、二重画像で構成されるフレームが多くなりました。
上の図で言うと、テレビレートの1、2、5枚目の画像は時間の揃った映画のコマが撮像されるのに対して、3枚目と4枚目は映画のコマをまたいだ画像となっています。
テレシネ画像から画像解析をする場合には、二重画像と時間軸のブレを考慮して行わなければなりません。
 
テレシネで採用された2-3プルダウン方式は、映写機に特殊な送り機構を要求しました。
映写機にこのような変則的な時間間隔で送り機構を持たせることは、当時のモータ制御技術ではできませんでしたから(1980年代までのモータは一定回転というのが原則)、ユニークなカム機構(オルダム継ぎ手と三角カム機構)によって、モータの一定回転から1コマずつ送り時間を変えるという回転機構を作り出していました。
 
【24 コマ/秒と30 フレーム/ 秒
話は余談になりますが、映画がなぜ24コマ/秒なのにテレビは30フレーム/秒なのでしょう。
背景を知らない我々は、同じにしたらよいのにと思います。
しかし、こうした背景には、技術的な問題やコスト的な問題、政治的な問題(特許や販売権)が多く絡んでいることが少なくありません。
テレビ放送の再生速度は、映画の再生速度を十分に考慮せずに放送規格が行われ再生速度は商用電源周波数と同じに決められました。
これは、商用電源の周波数がハムノイズとなってテレビカメラや受像機に影響を与えるのを防ぐ目的がありました。
映画の方も、必要かつ十分なフィルム送りを経験から割り出して24コマ/秒としました。
映画フィルムは高価なので、できるだけコマを使いたくない事情がありました。
映画の初期(音を入れない無声映画時代)は、16コマ/秒だったのです。
音声をフィルムに記録するようになって音のフラツキや音質が悪かったので24コマ/秒に上げたという経緯があります。
24コマ/秒再生時に画面のチラツキが目立ったので映写機のシャッタのシャッターを48回/秒として1コマを2回切って画面のチラツキを抑えました。
テレビ放送が60フィールド/秒(2フィールド/1フレーム)のインタレースとしたのもフリッカー(画像のチラツキ)を抑えるためでした。
 
テレビ放送が始まったとき(1940年代)、映画産業は成熟の時代を迎えていましたので、テレビに迎合する気風はこれっぽっちもありませんでした。
当時のテレビ放送は即時性の目新しさはあったもの、画質、カラー、エンタテイメントなど映画の足下に及ばなかったのです。
1970年代までのテレビ産業は、テレビカメラで撮ってそのまま再生するだけが精一杯で、それにビデオテープレコーダが一般的になっていなかったので、映像を記録するにはフィルム像を使ってテレビカメラで再撮影せざるを得ない事情がありました。
しかし、かと言って映画の24コマ/秒にテレビ方式を変えることはできませんでした。
テレビ放送は、家庭に置かれた受像機と放送局の間で無線を使ったスケールのでかい放送規格だったので、おいそれと変更できなかったのです。
白黒放送からカラー放送に移行するのでさえ、白黒受像機で支障なくテレビ放送が受信できるように配慮されたくらいだったのです。
 
そのような理由で、両者は現在になっても互いに自分たちのフォーマットを譲ることはありません。
テレビがデジタル放送を迎えて、走査線の数や画面の縦横比を変えたり、インターレース方式を止める規格は成立しても、再生速度の30フレーム/秒(29.97フレーム/秒)を変えることはありませんでした。
 
2010年あたりから映画業界がデジタルシネマの時代になり、も24コマ/秒にこだわらずに30コマ/秒でよいのではないかと考えてしまいますが、現行の規格でもデジタルシネマは24コマ/秒となっています。従って30コマ/秒で制作された素材は24コマ/秒に変換されることになります。
   
 
▲ アナログビデオ信号 - NTSC(National Television Standards Committee) (1998.01)(2007.03.30追記)
 
電子動画像の規格の一つがNTSCというものです。ビデオ関連の書物を読むとこの言葉が頻繁に出てきます。
NTSCは、米国が決めたテレビジョン送像・受像についての取り決めです。
NTSCというテレビ放送規格は、1950年から2000年までの間、テレビ放送の中心的な役割を果たしてきました。
日本では、1954年のテレビ放送開始以来、今日にいたる約50年間、この規格でテレビ放送が続けられてきました。
産業用でもNTSC機器を使って、監視用、計測用に幅広い活躍をしてきました。
このアナログのテレビ放送規格は、昨今のデジタル画像の興隆に隠れて話題に上らなくなりつつありますが、現在でもなお30フレーム/秒の画像送受信は捨てがたい魅力があります。
しかし、長く続いたNTSCテレビジョン放送規格も、米国では2009年に放送を終了し、日本では2011年7月24日に終了します。
古いテレビ受像機(アナログテレビ受像機)では、2011年以降の放送は受信できないことになります。
NTSCは、ここではNational Television Standards Committee の略と記しましたが、文献によっては、National Television System Committee としていているものもあります。
どちらが正しいかは今のところわかっていません。
ここでは、規格の成り立ちの性質上と、標準化が図られた経緯からStandardsの方が正しいと思いこちらを採用しています
 
長い間君臨してきたテレビ放送規格のNTSCとはどんな規格なのでしょう。
 
規格統一にはいつも利権がからみ、当事者としては死活問題となります。
しかし、利用者としては一日でも早く規格化してもらいたい問題です。
 
ビデオ記録方式に見られた1980年代前半のビクター・松下陣営のVHS規格とSony陣営のβフォーマットの争いは、ユーザまで巻き込んだ激しい争いでした。
テレビ放送規格であるNTSC規格は、米国内ではテレビ放送規格を決める段階でいろいろな利権が絡み、かなりモメたそうです。
日本ではテレビがそれほど一般に普及していなかった時代にアメリカでほぼ完成した規格を輸入したため、何の疑いも持たず受け入れることができたので大きなトラブルはありませんでした。
   
 
NTSC規格の骨格
NTSC規格は、白黒テレビジョンの電波放送が始められた頃からの非常に古い規格(1940年代の規格)です。
時代が下って、白黒からカラー放送に移行するに伴って、従来の白黒テレビでも放送信号を受像できるようにしなければならないことも大切な規格目標としていました。
米国のテレビ放送規格の母体は、NTSCという団体です。
この団体は、米国でテレビジョン放送の産声が上がったときに、いろいろな開発機関が自分たちの方式を主張しあって収拾がつかなくなることを恐れて、1940年にFCC(Federal Communications Commission)によって設立されました。
NTSCはテレビジョン放送の標準化団体だったのです。
NTSCは、1941年に白黒のテレビジョン放送規格を打ち出します。
この規格は、RCA社が開発していた走査線441本のテレビ方式と、Philco社が主張していた走査線の多い605本(〜800本)方式の双方の中間を取って、525本と決められました。
(なぜか、表示速度の30フレーム/秒は双方同じでした。)
その他に、上の規格も含め、以下の取り決めが行われました。
 
 
■ 画面を構成する縦方向の走査線を525本とする。
■ 動画速度を30フレーム/秒とする。
■ 525本の走査線を2回に分けて行う
2インターレース方式とする。  
■ 画面の縦横比を3:4とする。
■ 6MHzの帯域で送信する。
   
 
 
アナログ信号の仕組み
 
右図にNTSCのアナログ信号の仕組みを示します。
NTSC信号では、画面が525本の水平線(走査線)で成り立っていて、その走査線に白黒の濃淡像信号が乗せられています。
右図は、白黒バーのチャート画面を表していて、その中の1水平線分の電気信号を下の図に示したものです。
1走査線は、水平同期信号(5usのパルス)で仕切られていて、水平同期信号間分が1水平走査線の映像信号となります。
画像が暗い部位は電圧が低く(〜0.3V)、明るい部位は高い電圧(〜1.0V)となります。
0Vから0.3Vの間は、タイミング信号に割り当てられて、水平同期信号や垂直同期信号のパルスが織り込まれます。
産業用の白黒カメラのビデオ出力信号をオシロスコープでとらえると、概ね右の信号を見ることができます。
しかし、テレビ放送でアンテナで受信するテレビ信号(RF = Radio Frequency信号)は、このようになっていません。
電波で送る工夫が施されているからです。
テレビ放送では、この映像信号にFM変調された音声信号を組み込んで、さらに電波で送信するための搬送波が重畳(ちょうじょう)されます。
この搬送波は、放送チャンネルよって異なりますが、東京のNHK総合(CH1)では、90〜96MHzの帯域が割り当てられています。
この帯域の中の4.2MHzが映像の輝度信号に割り当てられます。
さらに、カラー信号では、この白黒信号である輝度信号に色信号が4.5MHz離れた所に重ね合わせられて映像信号ができあがります。
最終的な放送用NTSC信号はとても複雑な波形となります。
このように、NTSCでは、無線を使って映像と音声を送信するため、送信帯域に制限があり、送信できる画像の解像力が決まってしまいます。   
 
 
インターレース(interlace、飛び越し走査)
テレビジョンのインターレース(interlace)方式というのは、一般的にわかりわかりずらいかも知れません。
1枚の画像を構成するのに1回の走査で描くのではなく2回に分けて描く方式です。
なぜそのようなめんどくさいことをするのでしょう。
1940年代、NTSCが制定された当時の技術では、525本の走査線で60フレーム/秒の画像を作ってこれを無線で飛ばすことは困難でした。
非常にたくさんのデータ量になるからです。
ならば、525本の走査線で一気に画面を描いて30枚/秒(半分の描画枚数)で送れば良いだろうと思うのですが、こうすると画面のチラツキ = flicker(フリッカ)と言うとても見づらくて不愉快をもよおす不具合が出てしまいます。
1940年当時の表示デバイスは、ブラウン管です。
ブラウン管は、真空管の蛍光面に電子が当たって蛍光を発するものです。
発光持続時間は数ミリ秒程度でしょうか。
映像信号を画面の左上から一筆書きで蛍光面に画像を浮き上がらせて行くとき、最初と最後では、1/30秒の遅れが出てしまいます。
この時間差を人の眼は識別してしまい、不愉快な明暗(フリッカ)として認識してしまうのです。
動画としては、1秒間に10枚もあれば目の残像の働きによって動きとして認識できますが、点滅が認識されないようにするには30Hzではとてもダメで、60Hzが必要であったということです。
映画館で上映している映画は、24枚/秒です。
テレビよりもはるかに映写速度が遅いのに、フリッカーが論じられないのはなぜか? 
映画上映は、たしかにフリッカーはあります。
私は職業柄それがとても気になります。
しかし、テレビ画像よりも深刻な問題として対処してこなかったのは、以下の理由によります。
 
・映写機には円板シャッタが組み込まれていて、1画面に対して
  2回のシャッタリングを行い、48Hzの映像としてスクリーンに
  投影している。    
・フィルム画像は、面投影であり、テレビのように走査線によって
  一本一本の線画で画面を構築しないのでフリッカが出にくい。
・映画は、当初16コマ/秒でスタートし、音声を入れるトーキーの
  時代に なって、音質の観点から24コマ/秒に上げられた。
  これ以上速度を上げるのは、撮影機・映写機の機械の精度と耐久性、
  及びフィルム消耗の点で得策ではなかった。つまり、面投影である
  映画では、16コマ/秒(32Hz)でもフリッカーは大きな問題とならなかった。
 
映画でも、24枚/秒の再生ではフリッカが出ていたのです。
だから、映写機に円板シャッタを設けて1画面を2回シャッタリングし、シャッタリング周波数を倍の48Hzに上げてフリッカを抑えていたのです。
 
テレビ画面では、30フレーム/秒による再生時に出るフリッカを防ぐ手だてとして、画面を2回に分けて描くというインターレース方式(2フィールド1フレーム、1枚の画像=フレームを2枚の画像=フィールドで作る)を採用しました。
60Hzのチラツキであれば、ほぼ問題ないレベルとなります。
(だけれども、まだ気になる人がいます。60フレーム/秒のノンインターレースと比べると、チラツキは明らかに認識できると言われています。)
 
技術が進歩した昨今では、なにもインターレースにしなくても、60フレーム/秒で撮影して表示できるようになったので、ノンインターレースの表示装置やプログレッシブスキャン(前画素読み出し)のカメラが出回るようになりました。
ただ、ノンインターレースは、従来のNTSC規格にはないものなので、放送局規格に縛られない産業用の計測カメラから使われ始めました。
デジタル放送になると、旧来の制約から解き放たれますので、ノンインターレースの放送が可能となりました。
 

 

こうして見ると、インターレースは昔の技術ということが言えるでしょう。
インターネット時代の先駆けの頃(画像が載せられるハイパーターミナルテキストHTMLが、1993年、イリノイ大学で作られた当時)は、それほど速い通信回線が整備されていなかったので、ふんだんに画像をwebに載せることはできませんでした。
(1998年に開設した私のホームページも、当時容量が大きすぎると苦情を言ってこられる訪問者が数多くいました。)
ISDNの通信回線でも、私のホームページを開くのに恐ろしく時間がかかっていました。
その画像を少しでも速く閲覧者に見てもらえるように、画像はインターレース方式で送っていました。
GIFと呼ばれる画像フォーマットにはこの機能があり、1990年代の後半あたりは非常によく使われていました。
インターレースによるGIF画像では、まず大まかな画像を先に送って画像の輪郭を閲覧者に提供し、時間を追って画像を鮮明にしていきました。
これがまさにインターレース(編み込み)方式なのです。
   
 
NTSCの画面
テレビ放送では、無線放送という大きな制約があります。
電波を使って広い地域にくまなく映像を送る方法は、とても魅力的なものである反面、公共電波を利用する関係上送信周波数が限られています。
限られた信号周波数帯域で送信チャンネルを割当てるため、制約をかせられ、きめの細かい映像を送れないなどの問題点を抱えながら、妥協をしいしい今日に至りました(2011年までのアナログ放送の話)。
NTSC規格によるテレビ放送では、送信周波数が90MHzから6MHz毎のチャンネルとして割り当てられています。
東京の場合、90 -96MHz(CH1)がNHK総合に割り当てられ、102 - 108MHz(CH3)がNHK教育に割り当てられています。
この6MHzの帯域の中に、走査線525本、1秒間30フレーム、カラー情報、音声情報を入れ込んで送らなければなりません。
この足枷があるために、テレビジョンでは、画像の解像力に限界があり、以下の「NTSC規格の水平解像力」で述べるように、水平成分の解像力が447本と決められています。
送信帯域の制限を受けないスタジオ内や産業用のビデオシステムでは、放送での解像力よりはるかに品質の良い画質が得られます。
走査線525本のうちの画面に現れる有効走査線が480本であるので、この値と画面の縦横比から横の解像力を求めると、
 
      480本 x 4/3 = 640  ・・・(Rec -18)
 
640本という値が出てきます。
640x480という値こそ、IBMがパソコンの標準画面として採用したVGA(Video Graphics Array)の画素数だったのです。
実際のテレビの有効走査線(画面に現れる走査線数)は480本ではなく490本と言われています。
パソコン画面ではデジタルによる画像処理と画面構成を行っている関係上、8の倍数である640x480画素はわかりがよく処理がしやすかったのだと考えられます。
無線送信のNTSCでは、偶数値は鬼門です。
画面の走査線を偶数で構成すると、ビート(干渉縞)が現れます。
それを除くためにNTSCでは走査線を奇数とし、尚かつ、送信枚数も30フレームの偶数値からすこしずらす工夫(29.97フレーム/秒の怪)をしなければなりませんでした。
コンピュータ画面は、そのような制約がなく、逆にメモリ管理の関係上、8の倍数の方が都合が良かったと考えられます。
   
 
NTSC規格の仲間 - PALとSECAM
 
テレビジョン放送規格の国際的な規格としては、NTSCのほかにイギリスなどのヨーロッパ諸国が採用しているPAL(パル = Phase Alternation by Line)規格と、フランスやロシアなど旧社会主義国が採用しているSECAM(セカム = Sequenticel Couleur A Memoirre[フランス語])方式があります。
これらは、日本(他に、米国、韓国、フィリピン、台湾、メキシコ、コロンビア、チリ、ペルー)のNTSC方式とは違う送信方式であるため、日本のテレビやビデオを海外に持って行っても何も映らないという問題が生まれました。
欧州やロシアがNTSCを採用しなかった理由は、NTSCを採用したくなかった、というのが本当のところのようです。
標準化がいかに難しいかがわかります。
NTSCを嫌った欧州は、撮影・再生速度を変えました。
米国は、おそらく撮影・再生速度の根拠を電源周波数においていたはずです。
米国の電源は、AC110Vで60Hzでした。
この電源周波数に従って再生速度を整えました。
ブラウン管など高圧電源が必要な受信器では、トランスを使って高圧を作る場合に商用電源周波数は大事で、この周波数に従って受像機を作るのが安易な方法でありハム雑音を低減することができます。
それでNTSCは、60フィールド/秒、30フレーム/秒としたわけです。
NTSCを採用している米国、カナダ、日本(西日本)、韓国、フィリピン、タイなどは60Hzの商用電源周波数です。
欧州の電源周波数は、50Hzです。
従って、欧州のテレビジョン規格(PAL)は、50フィールド/秒、25フレーム/秒となりました。
動画速度がNTSCに比べて17%も遅くなりました。
速度は遅くなりましたが、その分走査線の数を増やして625本としました。
PALは画質が良いと言われる所以です。
また、動画速度が低いため、PALはチラツキが多いと言われる所以でもあります。
 
2000年代に入って、デジタル放送を立ち上げる機運が全世界的に高まりました。
この時代になっても、放送規格は足並みを揃えることができません。
米国、欧州、日本と3つのグループがそれぞれの規格を主張しあってそのまま規格化になだれ込みました。
傍目からみれば、すべて統一したほうがすっきりすると思うのですが、利権がからんだり、過去の遺産(古い受像機を持った人たちへの対応)も絡んだりとうまくは行かないようです。
 
 
29.97フレーム/秒の怪
 
ビデオカメラなどのカタログを見ていると、録画再生速度の項目に、29.97フレーム/秒という数字が掲載されていることがあります。
 
NTSCの規格は30フレーム/秒ではなかったのかしら?
ま、0.03フレーム/秒は、30フレーム/秒の0.1%だから
とるにたらないのかな。
しかし、なんで30フレーム/秒と気持ちいい数字に
してくれないんだろう?
 
この数字を見たとき、私はとても不愉快な気持ちになりました。
テレビ技術者たちもきっと心地よくこれを決めたのではなかったでしょう。
NTSC規格が29.97フレーム/秒になった経緯は、白黒放送からカラー放送に変わったときに、白黒の受像機を購入した人でもカラー画像を白黒画像として見えるように、compatibility(両立性)を確保しためでした。
30フレーム/秒でカラー画像を作ると案配が悪かったのです。
不具合の理由は、白黒画像(輝度情報)に色情報を搬送色信号(「NTSCのカラー情報」参照)として重畳(ちょうじょう)させたとき、わずかではあるけれども、搬送色信号の周波数成分が輝度信号成分に現れて、それが画面として見えてしまうからでした。
これは非常に見苦しいものでした。
これは、搬送色信号と送信周波数である30フレーム/秒の干渉によってビート(発振によるモアレのような縞画像)が現れてしまうという問題でした。
カラー信号を作る色信号は、白黒(輝度)信号に邪魔を与えないように電波で送信できる限界の周波数を選んでいますが、それでもビートとして画面にうっすらと現れてしまいました。
 
NTSC規格の根本は、走査線525本を1秒間に30枚で送るというものです。
これを守らないと白黒受像機で画像が受けられません。
従って、カラー放送を実現するときに、すでに家庭に出回っていた白黒受像機でも受像できるように、できるだけ規格を崩さず、かつ、カラー画像もちゃんと送受信できるように、できるだけ30フレームに近づけて、なおかつ、カラー信号が白黒画像に影響を与えない数値、すなわち、フレーム周波数を29.97フレーム/秒(59.94フィールド/秒)としたのです。
 
テレビ画像は、走査線によって画面が構成され(これをラスター画面と言います)、しかも、無線による送信をしなければならない関係上、走査線の数は奇数にしなければなりません。
また、周波数も2画面をインターレースで編み合わせているため、信号周波数が整合すると画像にビートが乗りやすくなるので、それを防ぐ工夫をしなければなりません。
走査線が525本であるのも、水平周波数が15,734.264Hzであるのも、フレーム速度が29.94フレーム/秒であるのも、すべて画像の干渉(ビート)を除くためでした。
   
 
アスペクト比4.3
テレビ画面のアスペクト比(横と縦の画面比)が4:3であるのは、映画画面からの踏襲です。
映画がエジソンによって発明された時、画面(コマ)は、35mmフィルム巾に、24mmx18mmという画像サイズを取り入れました。
この比率は4:3でした。
テレビは、映画の画面比を借用したのです。
もっとも、映画はその後、フィルムにサウンドトラックを焼き込むスペースを設けたり、シネスコレンズの登場によってこのアスペクト比を崩し、スクリーン画面を 2.35:1 としました。
黒澤明監督作品や、山田洋次監督の作品をテレビで放送するときは(彼らはこの比率をかたくなに守っていたので)、テレビ画面の上下が空いた画像となります。
映画画面の比率は、ハイビジョンの16:9よりも横長であるため、ハイビジョン放送を使っても映画画面をフルに映し出すことはできません。
ちなみに、受像機(テレビ)の大きさを表す35型などの「型」は、インチの別表記であり画面の対角線長を示しています。
35型は対角線が35インチなので、縦横は21インチx28インチ(53.5cmx73.2cm)となります。
 
 
 
NTSC規格のカラー情報  (2008.10.25追記)(2009.02.03追記)
NTSC規格(テレビジョンシステム)は、かなり複雑なシステムです。
画像計測の立場に立って、誤解を恐れずに言うならば、テレビシステムは妥協とごまかしの産物でした。
しくみと原理をよく理解して計測目的に使わないと、混乱をきたすおそれがあります。
 
■ 白黒受像機との互換の問題
カラーテレビジョンは、白黒テレビジョンが全世界的に広まった後で開発されたため、白黒テレビを持っている利用者でも放送局から送られてくるカラー映像信号を白黒受像機で見えるようにしなければなりませんでした。
平たく言えば、カラー映像信号は、カラー放送以前に取り決めた白黒映像信号と基本を同じにして、白黒テレビでも問題なく受信するようにしなければなりませんでした。
 
日本でカラー放送が始まったのは、テレビ放送の始まった1953年(昭和28年)から7年遅れての1960年(昭和35年)です。
当時、カラー放送は全放送時間の1割もありませんでした。
カラー受像機が100%近くに普及するのは、1970年代終わりの頃だと思います。
実に30年近くも白黒受像機は使われていたのです。
工業用テレビにおいては、カラーカメラは高価であり、画像のキレも悪いので、監視カメラや、製品生産ラインのチェック用として2000年近くまで白黒カメラと白黒受像機が使われていました。
2009年時点でも、FA関連のカメラでは白黒カメラがよく使われていました。
 
このような理由から、NTSC規格のカラー信号を決める時に、白黒の映像信号を基本にして、白黒受像機でも弊害を受けないように対策が立てられました。
カラー情報は、白黒輝度信号の中の比較的広い映像部分(この部分は、映像周波数としては低い周波数になる)に与えることにして、色の情報を伝える色差信号を500KHzまでに限定しました。
この色差信号を3.58MHzで副搬送波として映像信号に重畳させています。
500KHzの信号は解像力に直すと63TV本になります。
これ以上の細かい部分については、人間が色を感知せずに光の強さだけを認めるという性質をうまく使い、輝度情報だけを送っています。
従って、通常のCCDカメラを用いてカラー画像処理を行う場合に、NTSC信号では細かい部分のカラー情報を持ち合わせないため色情報を取り出せません。
カラー画像処理を行うためには、RGB方式のビデオカメラとRGB 3系統の画像メモリを組み合わせたものが理想となります。
もちろん、VTRやDVなどの録画装置に保存してしまっては、細かいカラー情報は消されてしまいます。
 
 
■ カラー映像信号の作り方
カラー映像信号を、白黒受像機で受けても問題なく映像を受信できるようにするために、カラー映像信号は「アナログ信号の仕組み」で説明した同じ方式にしてあります。
白黒映像信号をもとに、白黒受像機の受信に不具合が起きないようにカラー情報を乗せています。
右の映像信号(1水平ライン分の信号)が、NTSCのカラー信号です。
各色の輝度信号に髭のような細かい信号が乗っています。
これは、白黒濃淡を表す輝度信号(Ey)に、3.58MHzの周波数を持った色信号を重ね合わせているのです。
白黒受像機では、3.58MHzの細かい信号は基本的には認識されずに、その下のベースにある輝度信号だけを取り出して白黒画像を作っています。
現実には、色信号は完全には除去されずに、細かな輝度信号となって干渉縞を発生させています。
その干渉縞は、455TV本に相当します。
この干渉縞を抑えるために、画像の1フレーム毎に干渉縞をずらして2フレームで見た目の細かな縞を打ち消しています。
細かく見るとフィールド毎のラインに縞が見えますが、ライン上に現れる縞がフレーム毎が半波長だけずれるので、画面全体を見れば目立たなくなるのです。
カラー信号では、まず、水平同期信号(走査線が左から右に走るというスタート信号)の直ぐ後に続くバックポーチ部に、カラーバースト信号を乗せています。
これは、「この映像信号がカラー信号ですよ」、という合図です。
カラーバースト信号は、3.58MHzの周波数で作ることが厳格に決められていて、8〜12のパルス数で構成されています。
このカラーバースト信号は、受像機側では、カラー情報を構築する上で大切な働きをします。
この信号で、カラー信号の周波数の校正と位相の補正をします。
輝度信号に重畳された(ちょうじょう = 重ね合わさった)カラー信号は、バースト信号との位相のズレ(θ)で色を決めるので大切なのです。
輝度信号に重畳された色信号は、振幅(電圧幅、L)成分とバースト信号からの位相のズレ(θ)情報を持っていて、この二つの情報と輝度値(Ey)を使って、最終的に色情報(EB、EG、ER)を算出します。
その前段階として、二つの色差信号(EB - Ey、ER - Ey)を作ります。
色差信号を作るのは、画像の大きな部位に対してだけです。
細かい部位に対しては色信号がないので色をつけることはできず、輝度信号情報だけの映像(つまり、白黒映像)となります。
 
■ カラーバースト信号の弊害
カラーバースト信号と色信号は、ともに3.58MHzの周波数で作られています。
この周波数は、受像機の回路側でカラー信号を抽出するのに大切な働きをします。
この信号周波数をもとにして、映像信号の色情報を読み出しています。
3.58MHzの周波数を持つ色信号は、本来は、最終的な映像信号が作られる時に除去されるべきものですが、映像信号として残ってしまいます。3.58MHzという信号は、525本の走査線、29.97フレーム/秒の全画面構成では、
 
2 x [ 1/(525 本/フレーム x 29.97 フレーム/秒 )]/( 1/3.58E6 Hz ) = 455.06 TV本    ・・・(Rec -19)
 
455TV本の縞としてうっすらと画面に現れます。
しかし、これはしかたのないことでした。
何度も言いますが、NTSC映像信号は電波放送を前提としていて、電波に乗せて映像信号を送るために送信帯域の制限があります。
4.5MHzの送信帯域(実際の映像信号の帯域は4.2MHz)に映像信号を押し込めなくてはならないため、30フレーム/秒、525本走査線は譲れない条件となります。
この制約の中で、カラー信号を入れなくてはなりません。
カラー信号を乗せる基本周波数(バースト信号周波数 = 3.58MHz)の選定も、この制約の中から最適な条件として求められました。
その条件出しは、以下の通りです。
つまり、
 
バースト信号周波数(fs) = [水平走査周波数(fh)/2] x 奇数番号(N)      ・・・(Rec -20)
 
とすれば、画面への弊害を最小限に抑えることがわかりました。
バースト信号(fs)は、映像搬送波からできるだけ離して設定すれば効果が上げられる反面、周波数帯域の制限があるためその範囲内に収まるようにNを設定しなければなりません。
規格では、N = 455に設定されています。
これは、455が奇数であることと、素数分解したときに5x7x13にできて電子回路が組みやすいという利点から、N = 455が求まりました。
 
水平走査周波数(fh)は、テレビ送信信号の帯域4.5MHzを走査線の数とフレームレートの積で割った値として求められますが、バースト信号周波数(fs)を考慮に入れて整数分の一にしなければなりません。
NTSCの当初の規格である30フレーム/秒、525本の周波数(15,750Hz)を元にして、4.5MHzの整数分の一になるような厳密な水平走査周波数を考えると、
 
4.5E6 Hz /15,750 Hz = 285.714     ・・・(Rec -21)
 
となるので、286が最も妥当な分周値となります。
これを、再度、計算して水平走査周波数(fh)を割り出すと、
 
4.5E6 Hz /286 = 15,734.266 Hz     ・・・(Rec -22)
 
となります。
この周波数を、バースト信号周波数(fs)を求める式に入れて、
 
15,734.266 Hz /2 x 455 = 3,579,545.5 Hz     ・・・(Rec -23)
 
が得られ、この値(3.58 MHz)が、バースト信号周波数(fs)の根拠となりました。
また、水平走査周波数(fh)から、最適なフレーム周波数(撮影速度)を求めると、
 
15,734.266 Hz/ 525 = 29.970030 Hz     ・・・(Rec -24)
 
となり、カラーNTSC信号の厳密なフレーム速度(29.97 フレーム/秒)が求まり、これがNTSCでの正式な撮影・再生速度となりました。
白黒テレビ放送が主流であった初期の受像機を使ってカラー映像信号を受信しても、30.0と29.97は、0.1%の許容差であり、システムが許容している+/-0.5%以内に十分に入っているので問題はありません。
 
このように、NTSCでは、送信上のいろいろな制約の中で成立してきた映像規格であることが理解できます。
この規格は、本来、計測を目的として作られたものではなく、動画を電波に乗せて配信するという大前提と制約があったので、これを計測用として使うには、十分に気をつけて使う必要があります。
 
 
NTSC規格の水平解像力
NTSC方式は、日本と米国、カナダ、韓国、台湾、メキシコ等で採用されているテレビジョン方式で、画像の構成が一秒間に30画面、一画面525本の走査線と決められています。
送信周波数もAM変調した映像信号とFM変調した音声信号を重畳(ちょうじょう)させ、90MHzから6MHzごとにチャンネルを割りふっています。従って、チャンネル1(関東地区はNHK)は、90 - 96MHz、チャンネル2は96 - 102MHzという具合になります。
6MHzの周波数帯域の中で、実際に映像信号として使える周波数は4.2MHz です。
NTSC規格では、29.97フレーム/秒の間に525本の走査線が走るので、走査線1本は、15,734.25Hz(63.5 us)で走査しています。
走査線は、画面の左から右に走り(走査し)、右端に達するとある時間を取って左端に帰らなければならないので(帰線期間)、有効な1走査線時間は、52.7usになります。
52.7usは、NTSCで決められた水平走査線の走査時間の83%の時間分で、有効画面の走査時間です。
この時間で、映像信号は最大4.2 MHzの周波数を取りえるので、おのずと水平方向の解像力が決まります。  
52.7 us x 4.2 MHz x 2 = 442.7 TV本  ・・・(Rec -25)
 
この式で、最後に2を掛けたのは、1Hzは映像でいうと白と黒の二つを表すことができるため、そして、テレビの解像力は白黒ペアで2本と数えるため2倍にしたものです。
この式から、放送局から送られてくる画像は、最も条件が良くて443本であることがわかります。
通常は、いろいろな画質低下の要因があるため、230 - 240 本の解像力が満足できれば妥協できる映像といえます。
家庭用のテレビは、その程度の解像力でした。
放送局用に使われているテレビカメラは、どのくらいの解像力を持つものを使っているのでしょうか。 画面の縦情報を決定する走査線は525本と決まっているので、これは固定としても、水平解像力はどのくらいあるのかというと、CCD素子を使ったベータカムは、494x768画素(この素子を3板で使用)のものを使っています。
このことから、放送局用のCCDカメラは、送信限界の解像度の2倍弱のカメラを使っていることがわかります。
 
S-VHSビデオの解像力
S-VHS(えす・ぶいえいちえす、Super-VHS)ビデオは、記録信号帯域を7MHzまで高め解像力アップを狙ったビデオ機器です。
S端子。
輝度信号と色信号を別々にしたビデオ信号端子。
放送用としてではなく、アマチュアが個人でカメラで撮影し録画する目的のため、NTSC規格にとらわれることなく開発されました。
(ただし、NTSC規格にのっとった関連機器との互換性を取ったのはもちろんです。)
開発したのは、VHS方式のビデオテープデッキを開発した日本ビクター社で、1987年のことです。
従来の方式が、映像信号にかかわる輝度信号と色差信号を重畳して1本の信号線で処理する方式としていたのに対し、S-VHS方式は、映像輝度信号と色差信号を別々に分けて記録再生するために、混信が無くなり解像力を上げることができました。
S-VHSの信号帯域から解像力を割り出すと最高890TV本になります。
解像力が900本近くなると、かなりきめの細かい画像になります。
しかし、記録、再生などトータル的に見るとS-VHSの解像力は400本前後となります。
それでも、この数値は従来のVHSの230本に比べると格段の画質向上を達成していました。
接続するコネクタは、右の形状をしていて、S端子(Separate端子)と呼ばれていました。
 
S-VHS規格は、VHSがデジタル機器の台頭に伴って、その役割を終えた2008.1月に民生機器の販売が終了したために、21年の歴史に終止符が打たれました。
 
ビデオ信号のダイナミックレンジ
 
NTSCに準拠したアナログビデオ信号の輝度レベル(明るさ検知の範囲)は、前にも述べたように0.3V〜1.0Vです。
この映像輝度信号をどこまで分解して濃度情報を得ることができるでしょうか。
世に出回っているディジタルメモリは、8ビット(28 = 256)256階調と規定して製作されています。
黒レベルの0.3Vから白レベルの1.0Vまでの0.7Vを256段階にわけると1階調当り2.7mVになります。
これほど純粋に、カメラもVTRもモニタも信号を大事に扱えるかどうかは疑問ですが、一般にビデオカメラの階調は 1:100(7ビット)と言われています。
これを被写体に照らし合わせて考えれば、10,000ルクス程度の屋外では 1,000 〜 100,000 ルクス程度の明るさを映像に収めることができます。
従って、1,000ルクス以下の明るさでは真っ暗になり、100,000ルクス以上の被写体は真っ白になります。
 
放送局用や理化学分野で使用されるカメラで、これ以上のダイナミックレンジを持つカメラは無いのでしょうか。
CCDカメラを例にとって考えてみましょう。
CCDカメラは、シリコンの光反応で光学像を電気変換することは前に述べました。シリコンは光に良く反応し、ダイナミックレンジはシリコンフォトダイオードで 1 : 100,000 であることも述べました。
同じフォトダイオードを使っているのになぜ1,000倍も違うのでしょう。
答は、検出信号電圧と S/N 比(Signal to Noise ratio)にあります。
素子自体は、本来広いダイナミックレンジを持っているのに、ノイズ成分が多くて短時間に取り出す信号用として使うには取り出せる領域が限られてしまっているのです。
分光分析用に使われているCCDカメラ(時にはCCD面を液体窒素やペルチェ電子冷却によって長時間露光と微弱光検出を可能にしたものもある)では、16ビット(1:65,000)のダイナミックレンジを持つものも市販されています。
これらのカメラは、NTSC 規格から解放されているために出力電圧を高くとることができ、また、信号取り出し時間もゆっくりとれるため 、S/N 比が向上し、分解能を高くとることができます。
従って、この種のカメラでは1秒間に30枚という画像形成は不可能です。
   
 
デジタルビデオ(DV)信号  (2006.11.05)(2008.05.04追記)
アナログ映像信号(NTSC)に代わって、1990年代後半からデジタル映像信号が普及してきました。
DV信号は、家庭用8mmビデオコーダがデジタルに移行するのに伴って規格化された映像信号です。
DV信号の規格内容を見ると、アナログ信号(NTSC信号)を踏襲していることがよくわかります。
DVフォーマットは、1995年にビデオ機器関連55社が集まって「HDデジタルVCR協議会」を組織し、この組織が作り上げたデジタルビデオ規格です。
この規格は、放送局用の規格ではありません。
アマチュア向け(家庭向け)のビデオカムコーダのデジタル規格です。
放送局では、この規格とは別のD1〜D6というデジタル信号が1982年から始まっています。
また、公共電波を使って、放送局から送信されるデジタル放送のデジタル信号もこれらとは異なります(「デジタル放送」参照)。
動画像のデジタル信号処理は、録画から始まったということができるでしょう。
DVフォーマットのおおまかな規格を、以下に述べます。  
【DV信号規格】
・ 画像: 720x480画素(インターレース)
・ 1秒間に30コマ(正確には29.97コマ)の動画を構成する。
・ 画像は、DVフォーマット(Motion-JPEG)。
    MPEG録画ではなく、一枚一枚の静止画を作って録画している。
   したがってフレーム毎の編集が可能。
・ 画像圧縮率: 1/5
・ サンプリング周波数: 13.5MHz(輝度信号)、
            3.375MHz(色差信号、輝度信号の1/4サンプリング)
・ 色差サンプリング: 4:1:1
・ 符号化ビット数: 約25Mbps
・ オーディオ: 非圧縮PCM
・ オーディオ量子化ビット数: 16bit/48kHz(2ch)、12bit/32kHz(4ch)
・ DVテープ: 1/4インチ(6.35mm)、メタル蒸着(ME)テープ
・ DVテープトラック幅: 10um(業務用DVテープは、18um)
・ DVテープ速度: 約18.812mm/秒(SP)、約12.555mm/秒(LP)
・ 記録時間: 80分(LPモードで120分)
・ 録画装置からのデジタル転送は、IEEE1394(Fire Wire)を使う。
 
この規格を見ると、DV信号は、NTSCアナログ規格のデジタル版という匂いを強く感じます。
その理由は、動画の構成が30フレーム/秒であることと、インターレースであることです。
縦の画素数480画素はNTSCの縦の有効走査線490本のデジタル版とも言えるものです。
また、水平解像力をNTSCでは最高のレベルに入る720本としたことからも、その近似性を見て取ることができます。
水平解像力720本については、注意が必要です。
すなわち、DV信号映像をコンピュータに表示させて、ピクセルbyピクセルで表示させると、横長に表示されます。
コンピュータの世界では、1画素は縦横同じ比率(正方格子)が前提ですが、テレビ画像では縦長の画素構造で横に緻密な画像となっていて、垂直解像度に限界がある分、横の解像度を向上させています。正方格子ではありません。
しかし、ハイビジョンのデジタル放送になると、16:9の画面比を正方形の画素ピッチ(正方画素)で表示する規格となりました。
放送業界では、NTSCのアナログ映像信号、DVのデジタル信号、アナログのハイビジョン放送は正方画素表示ではないことを注意しておくべきでしょう。
また、DV規格は、コンピュータ動画から出発した、AVIやQuicktimeの動画フォーマットとは違います。
AVIなどは、再生速度の制約もなければ画素数の制約もありませんでした。
   
 
ハイビジョンデジタルビデオ(HDV)信号  (2008.12.15記)
先に述べたDV規格ができたとき、来るべきハイビジョンの到来を予測して、DVにもハイビジョンを取り込む対応がなされていました。
HDV(High - definition Video)は、2003年9月にキャノン、シャープ、ソニー、日本ビクターの4社によって規格化されました。
ソニーが2008年に発売した、 家庭用向けハイビジョンカメラ(HDR-HC9)。  ・撮像素子は、単板CMOS(2,848x1,602)。  ・記録媒体は、miniDVカセット(30分録画〜85分)。
価格は、120,000円〜150,000円。
HDVに対して、先に述べたNTSCのデジタル化規格をSDVと呼んでいます。
HDVは、記録するビデオテープや編集器など、先に開発されたDV機器と共有することを大きな前提としていました。
HDVでは、走査線を1080本のインターレース(HDV 1080i)と720本のプログレッシブ走査(HDV 720p)の2種類が設定できるようになっています。
インターレースは、先にも述べているように、テレビ放送ができた当時からある画像表示方式で、1画面(フレーム)を2つの画面(フィールド)で織りなす方法です。
プログレッシブ走査は、1画面(フレーム)を1回の走査で描く方法です。
従来のデジタルビデオテープに、ハイビジョン画像を録画していく関係上、録画はMPEG-2が採用されています。
この方式をとらない限り、高画質な画像を記録することは不可能でした。
それほどMPEG-2は革命的なデジタル映像フォーマットだと言えるでしょう。
HDVの画面は、16:9のハイビジョンテレビと同じアスペクトになっています。
従って、HDV 1080iでは、基本的に、1440x1080画素で画面が構成され、59.94フィールド/秒を25Mbpsのビデオ圧縮で録画されます。
HDV 720pでは、1280x720画素で30フレーム/秒のプログレッシブ映像を19MbpsでMPEG-2圧縮されます。
音声は、いずれの方式においても、サンプリング周波数48kHz、左右16ビット、384kbpsのビットレートでMPEG-1 Audio Layer-2のデジタル記録がなされます。
 
右のカメラは、HDV規格の家庭用ビデオカメラです。
手のひらサイズの大きさをDVの時代から継承して、ハイビジョン録画が可能となっています。
テープ方式の録画の強みを生かして、最大85分の記録ができます。
ちなみに、同様のカメラで120GBのHDD(ハードディスクドライブ)を搭載したモデルもあり、これは最大48時間の録画が可能です。
   
 
ハイスピードビデオの記録周波数
NTSC規格は、記録周波数帯域が4.2MHzに制約され解像力もカラー情報も全てこの制約の中で行われていることがわかりました。
ハイスピードビデオはどのくらいの周波数帯域で記録しているのでしょう。
単純な計算を試みると次のようになります。
 
1,000 画面 / 秒 x 525 走査線 / 画面 x 300 白黒本/走査線 x 1/2  =  78.8 MHz ・・・(Rec -26)
 
上の式は、1,000コマ/秒のハイスピードビデオカメラで約79MHzの記録帯域で記録していることを示しています。
79MHzの記録周波数帯域のVTRやカメラ設計にはかなり高度な技術を必要とします。
この帯域での記録では磁気記録方式では記録周波数ギリギリまでテープ走行速度を上げていますし、カメラの走査速度も非常に高速になっています。これらの技術が完成したのは、高速・高集積 IC素子とアナログ素子の出現があったことは言うまでもありません。
 
↑にメニューバーが現れない場合、
クリックして下さい。
 
 
▲ デジタル映像信号 (Digital Video Signal) (2008.08.19記)(2008.08.25追記)
 
映像のデジタル信号化は、固体撮像素子とコンピュータの発展により1990年代後半から急速な普及を見てきました。
2011年以降のテレビ放送は、すべてデジタルに切り替わります。1954年に開始された日本のテレビ放送も、57年の年月を経てデジタル放送時代を迎えます。
家庭で使われている写真も、2009年ではほとんどすべてデジタルカメラに置き換わりました。
デジタル画像の基本は、画像を画素(ピクセル)という単位の升に区切り、そこに濃度を与えて数値化(デジタル化)したものです。
画素に番地がふられて濃度情報が記録される、きわめてわかりの良い考え方です。
映像の記録は、すべて画素単位で数値保存されます。
これがデジタル画像です。
このデジタル映像を1秒間に30枚、しかも720画素x480画素で表示するとなるとどうでしょう。
テープレコーダにデジタル記録する回路技術もさることながら、この情報を電波で送信する技術もそれだけの周波数帯域を持っていなければなりません。
 
30 画面 / 秒 x 720 画素 / 横画面 x 480 画素/縦画面 x 24 ビット/画素 = 248.8 Mbit/s ・・・(Rec -27)
 
この値は、1980年代後半普及していたデジタル電話回線(RS232C)の26,000倍もの速い通信速度で、インターネットの普及した2006年頃のADSL方式の12Mbit/sよりも20倍も速い値です。
光通信でもこの帯域を確保していません。
インターネットでは、画像を圧縮するという技術で高画質を保ちながら高速の動画像を送ることができます。
そうした技術がない時代にあっては、NTSCアナログ信号ですらこのような膨大なデータ量になってしまうため、アナログ信号のまま送らざるを得なかった事情がありました。
デジタル技術では、圧縮とか周波数の増強などの技術的ブレークスルーが要所要所でありました。 
   
 
最初のデジタル画像  (2008.08.19記)(2009.01.11追記)
最初のデジタル画像が使われた事例を紹介したいと思います。 デジタル画像とその処理を最初に開発したのは、米国JPLです。
1965年のことでした。
JPLは、正式名称を Jet Propulsion Labs (= ジェットプロパルジョンラボラトリーズ)と言い、NASAの研究組織として惑星の探査研究を受け持っていました。
米国カルフォルニア州のパサデナにあります。
CMOS-APS 固体撮像素子の親であるFossum氏も、この研究所の研究員でした。
 
 
■ NASAプロジェクト
NASAでは、1962年11月に火星に探査船を送るプロジェクトを立ち上げました。
当時、全米では、火星に生物が存在すると深く信じられていて、大統領はじめ全米が火星の様子を探るこのプロジェクトに大きな関心を寄せていました。
マリナー4号は、1964年11月に打ち上げられて、翌年1965年7月に火星軌道に入り、地上高6,000kmから地表面を200x200画素の解像力で撮影を行い、合計22枚の画像を地球に送ってきました。
この画像は火星表面の1%にあたるもので、200x200画素の画像は、1画素あたり1kmに相当する200kmx200km範囲の画像でしたが、地球から撮影して得る画像よりも150倍も良い分解能を持っていたそうです。
このプロジェクトの技術的チャレンジは、以下の二つでした。
(1)火星地表を鮮明な画像を撮影すること。
(2)得られた画像をデジタル信号に変換して、遠く離れた地球に送り届けること。
 
■ 遠隔通信手法 - PLL (Phased Locked Loop)
遠く離れた宇宙空間で画像データを送受信する通信技術は、これに先立つ1962年、金星に送り込んだマリナー2号のデータ通信で採用されて実証された「Phased Locked Loop = PLL」という通信方式で目途が立っていました。
PLLは、宇宙通信史上画期的な技術発明でした。
これは、送り手と受け手の両方が原子時計のような非常に正確な時計を持って同期をとり、同期に合わせて「0」と「1」のデータ情報を送るものでした。二つの信号しか送らない方法こそが、まさにデジタル通信であったのです。
この技術を彼らは画像通信に応用しました。
このプロジェクトを遂行するには、デジタル通信システムが絶対必要でした。 普通のアナログ・ビデオシステムは、すでに探査機「レンジャー」に乗って月に飛び、あるいは「タイロス」衛星に乗って地球軌道を回っていました。
普通に考えれば、アナログ方式を採用すれば問題ないと考えるでしょう。
しかし、今回は、地球周回や月などと違って桁外れの距離からの通信です。
テクノロジーのスケールをそのまま相似的に当てはめるわけにはいかなかったのです。
デジタル通信こそが、画像データの超遠距離伝送を高い忠実度で実現してくれる、唯一のシステムであると考えざるを得なかったのです。
 
■ テレビカメラ
火星探査衛星マリナー4号(Mariner 4)に搭載されたカメラは、フィルムカメラではなく、現像工程のいらないテレビカメラでした。
カメラは、当時のテレビ局が最新のスタジオカメラ用として採用していた「ビジコン管」(Vidicon tube、撮像管、真空管)を採用しました。
もちろん、白黒テレビでした。当時は、CCDなどの固体撮像素子はありませんでした。
テレビ放送は、NTSC呼ばれる(アメリカと日本などが採用したテレビ放送規格。2011年までアナログ放送として使われる)とアナログ送信技術が規格化されていて、電子映像装置はすべてNTSC規格に準拠していました。
従って、ビジコン管は走査線525本の性能を持っていました。
しかし、宇宙通信ではアナログ通信が行えないため、データの通信が確実におこなえるデジタル信号に置き換えなければなりません。
当時のデジタル通信では、525本の情報は多すぎて送信することができなかったので、ビジコン管の走査線を変更して200本と低くしました。
 
■ A/D変換(Analog to Digital transfer)
テレビカメラ(ビジコン管)で作られる画像は、電圧の強弱になったアナログ電気信号であるため、マリナー4号ではこのアナログ信号をA/D変換器(Analog Digital Converter)を使ってデジタル信号に変換しました。
A/D変換器は、トランジスタとコンデンサで組み合わせた電子回路であり、弁当箱程度の大きさがありました。この装置により、カメラ画像を200x200画素、6ビット(64階調)濃度に変換しました。
ビジコンカメラがとらえた画像は、240kビット(30kB)のデジタル画像だったことになります。
このデジタル画像を1枚作るのに2.5秒かかりました。
A/D変換されたデジタル信号は、一旦、4トラック・デジタル・テープレコーダに記録されました。
このテープレコーダの性能が、どの程度のものであったかは、資料がないのでわかりませんが、110kpsの記録は、4トラックで25umギャップの磁気ヘッドを使って、76.2cm/s(30 inch/s)のテープスピードでなんとか出せる性能です。
こうしたことの意味するところは、当時、たったこれだけのデータ情報を記録する電子メモリ(ICメモリ)がなかったことです。
それ以上に興味あることは、200x200画素、それも64階調とお世辞にも高画質といえないデジタル画像を、2.5秒もかかって変換したという当時のデジタル技術のレベルです。
つまり、デジタル画像は、まだ産声を上げたばかりだったのです。
当時は、デジタル技術をささえる半導体製造技術が成熟していなかったのです。
デジタル・テープレコーダ(おそらくアナログテープレコーダの改造)が使われたのは、ビジコン管から得られる画像の撮像スピード(110Kbps)に対応できる通信速度が確保できなかった(当時のデジタル通信は8.33bpsが限界であった)ことと、火星の裏側に回り込んだ際に地球にデータが送信できない問題があり、データは一旦テープで保存して、後でゆっくり送信する必要があったためでした。
宇宙通信データも、当時は1秒間に8ビットを送るのが精いっぱいでした。
200x200画素のデータを地球に送るのに8時間もかかったのです。
テープレコーダも、記録と再生では、1,320倍ものスピード差がありました。
磁気テープ装置は、録画はハイスピードで行って、再生は恐ろしく遅いスピードでテープを送っていたことになります。
   
 
VGA規格(Video Graphics Array) (2009.02.03追記)
VGA(Video Graphics Array)は、パソコン画面のもっとも基本的な画面構成で、米国IBM社が1987年に規格したデジタル画面です。
これは、テレビ放送の規格ではありません。
パーソナルコンピュータの規格です。
VGAは、パーソナルコンピュータの草分けであるIBM-PC(PS/2)に最初に採用されて、クローンメーカによる互換機もこれに追随したため標準規格となりました。
IBMがこの規格を作ったことにより、パソコン表示画像の作り込みが楽になり、写真や図表などがパソコン画面にどんどん取り入れられるようになりました。 画像ボードメーカも、この規格に合うようにいろいろなインタフェースボードを作って行きました。
このことは、1987年以前のコンピュータ画面が、コンピュータを作るメーカでまちまちであったことを示しています。
同時に、コンピュータ画面は、文字だけ表示されれば(ターミナルモードで)良しとされていた時代であったことを伺わせます。
 
VGAの規格は、NTSCアナログ規格の踏襲と言えるべきものです。
 
VGAに採用された画素数は、NTSCの解像力をお手本にして、そのままデジタルに置き換えました。
そのほうが既存のテレビモニタが使えるので便利だったのです。
ただ、色表示は無限表示(RGB各8ビット、24ビット)とするには、当時のパソコンのパワーが足りなかったので、16色(4ビット)からスタートし、256色(8ビット)まで取り決められました。
これは、カラー写真を表示するには不満の残る設定でした。
逆に言うと、1990年代までは、パソコンを使って写真を見るなどという考えが無かったことを伺わせるものでした。
当時は、文字を表示するのに精一杯で、文字に色がついたことに感激していた時代だったのです。
MS-DOSによるパソコンができた当時は、日本語では、漢字1文字が16x16画素のビット表示として割り当てられ、これを全角と呼んでいました。
従って、VGA画面では、全角で40文字x25行の文字が表示できました。
当時のパソコンは、こうした文字をパソコンに打って、これを読んでコンピュータと対話するという文字だけの世界に終始していました。
VGAは、当初、コンピュータ内部のマザーボードにモニタの画像を構築する回路を搭載していましたが、マザーボードから切り離して、ISAバススロットを介した拡張ボードとして供給されるようになります。
VGAボードがマザーボードと切り離して供給されるようになって、目的に応じた画像ボードを使うことが出来るようになり、高画素(SVGA、XGA)のモニタも使用できるようになりました。
以降、コンピュータ画像の高画素化はご存じの通りです。
現在のパソコンのもっともタフな仕事は、高画素になった画面表示にあることも、また事実です。
 
以下にVGAの規格を示します。
 
【VGA規格】(1987年)
・ 画素数: 640画素x480画素が代表的
・ 色: 16色もしくは256色
・ RAM領域: 256KB ビデオRAM
・ マスタークロック: 25.175MHzもしくは28.3MHz
・ 最大水平画面表示: 720画素
・ 最大垂直画面表示: 480画素
・ 画像表示周波数: 最大70Hz
・ 映像出力信号: アナログ0.7V p-p
・ ビデオ信号終端: 75Ω 
  【VGA規格の派生】
・ VGA: 640 x 480 画素
・ WVGA: 800 x 480 画素
・ SVGA: 800 x 600 画素
・ WSVGA: 1024 x 600 画素
・ XGA: 1024 x 768 画素
・ SXGA: 1280 x 1024 画素
・ SXGA+: 1400 x 1050 画素
・ WXGA: 1280 x 800 画素
・ WSXGA+: 1680 x 1050 画素
・ SXGA+: 1400 x 1050 画素
・ UGA: 1600 x 1200 画素
・ QXGA: 2048 x 1539 画素
   
 
 
デジタル放送(Digital Broadcasting) (2008.08.25記)(2009.05.06追記)
計測分野で使われる動画像とは別の世界に位置しているデジタル放送は、日本では2011年に全面的に置き換わりました。
デジタル放送の流れは、1982年から始まっていました。
デジタル放送の最初の流れは、録画装置から始まりました。
テレビカメラは、最初の間、アナログの放送局カメラが使われました。
デジタルカメラになったのは、デジタル放送を初めてからのことです。
カメラのデジタル化は最後の方で実行されたことになります。
つまり、放送の世界のデジタル化は、カメラで作り出したNTSCビデオ信号をデジタル処理してデジタルテープレコーダに保存することから始められました。
デジタルで保存されたビデオ信号は、再生時に再度アナログのNTSC信号に変換されて、編集装置や送信部門に送られて各家庭に配信されていました。
デジタル放送のさきがけのデジタルVTRが、どのように規格化されたのかを見てみましょう。
 
■ デジタルVTR(Digital Video Tape Recorder)
放送局で扱われる映像のデジタル処理は、1982年から始まります。
デジタル処理は、録画装置(VTR = Video Tape Recorder)から始まりました。
つまり、カメラは当時、まだアナログカメラを使い続けていました。
デジタルVTRが開発された1982年は、IBM社によるパソコンが登場した時期です。
また、オーディオのCDが発売された時代でもあります。
パソコンでは、とてもデジタル動画など出来なかった時代に、テレビ放送はデジタルに向けて動いていたことになります。
デジタル化への道は、信号周波数との戦いだったと想像します。
 
■ D1-VTR
最初のデジタル録画装置は、D1規格と呼ばれるもので、1982年に制定されて1986年からD1-VTRによる編集や保存が開始されました。
もちろん、放送にはこれを再びアナログに変換していました。保存だけデジタル処理になったのです。
1980年代は、家庭用のVHSタイプやベータ方式のVTRが急速に成長していた時代です。
磁気テープの詳細については、項を改めて紹介しています。
これらの技術が発展して、放送局に使われるVTRがデジタル化されていきました。
デジタルVTR(D1-VTR)に使われたテープは、3/4インチ巾(19mm)で、U-matic規格のビデオテープを改造したものでした。
これを使って、NTSC(アナログ)ビデオ信号成分を余すところなくデジタル信号に置き換えたのです。
放送用のデジタル信号は、静止画像と違って1秒間に30枚の映像が連綿と続く信号です。
これを、デジタル処理して連続して録画しなければなりません。
待ったなしです。
したがって、放送用のデジタル信号はアナログ(NTSC)信号をできるだけ簡単にデジタルに変換する手法、つまり、コンポーネントデジタル信号(YCbCr、UVR 4:2:2信号)が採用されました。
 
■ D1-VTRとD2-VTR
 
規 格
D1 - VTR
D2 - VTR
D3 - VTR
D4 - VTR
D5 - VTR
D6 - VTR
開発年
1986
1988
1992
欠 番
1993
1995
記録方式
4:2:2
コンポーネント方式
コンポジット
デジタル方式
 
4:2:2 コンポーネント方式/
10ビットコンポジットデジタル方式
4:2:2
コンポーネント方式
デジタル/アナログ
デジタル
 
デジタル
使用テープ
3/4インチ(19mm)磁気テープ
1/2インチ(12.7mm)
磁気テープ
  
1/2インチ(12.7mm)
磁気テープ
3/4インチ(19mm)
メタル磁気テープ
主開発
ソニー/
AMPEX
NHK
/松下
 
NHK/松下
東芝/独BTS
特徴
最初のデジタル録画VTR
旧来機との互換を重視したデジタル記録
1/2インチカセット使用
 
16:9ワイドビジョン
HD対応
フルハイビジョン対応
コメント
アナログ式との互換が難しく、あまり普及しなかった。
旧来機と互換があり普及。
画質はよくない。
バルセロナオリンピックに採用
 
ハイビジョン対応 
高価
 
 
 
 
 
 
 
実を言うと、D1-VTRはあまり普及を見ませんでした。 1988年に作られた D2-VTR の方が大きな普及を見て、1990年代の主力となっていきます。 D1-VTR と D2-VTR の違いは、デジタル信号のエンコード方法にありました。 D2-VTR は、NTSC信号のアナログ信号をバサバサとそのままサンプリングしてデジタル化しました。 D1-VTRでは、輝度信号と色差信号をそれぞれ抽出(コンポーネント化)し、デジタル化しています。
方や D2-VTR はそういうことをせずにアナログ信号をそのまま8ビット濃度で処理しました。
D2-VTR の方がより簡単にデジタル変換する方式だったのです。
 
D1-VTR の登場は、時代が早すぎたようです。
当時の放送局で使われている設備は、アナログ装置が圧倒的でしたから 、D1-VTR を他の装置と組み合わせて使うときに、変換などの処理に手間がかかり相性があまりよくなかったようです。
D1-VTRを開発したソニーは、そのことに気づいて、すぐさまD2-VTRの規格を策定し、認定を受けて開発に着手したそうです。
D2-VTRは、デジタル技術が熟成する1994年まで主力として使われました。
D2-VTR は、アナログ信号をそのままデジタル化したので変換処理が楽でした。
ただ、この方法は、ある意味少々手荒い処方だったので、色のつき具合が D1-VTR に比べて芳しくないという欠点も持っていました。
コンポーネントデジタル信号手法は、デジタル技術が進んだD5-VTR で再登場し、現在の主力になっています。
D2-VTR のデジタル変換は、先に説明したようにアナログ信号をそのままA/D変換しています。
A/D変換を行うサンプリング周波数は、14.31818MHzです。
これは、カラーバースト信号(3.579545MHz)の4倍の周波数にあたります。
カラーバースト信号を4倍でデジタル化すれば、色情報もデジタル記録できるという設計思想のようです。 D2-VTR規格の後に開発される D3-VTRは、使用するテープを1/2インチ(12.7mm)巾とした規格となり、コンパクトになりました。
D1-VTR信号に採用されたコンポーネントデジタル信号は、1993年のD5-VTRで再度登場します。
D4-VTR は欠番です。
D5は、ハイビジョン対応です。
D4がなぜ欠番かと言うと、D3-VTRの開発で松下(現:パナソニック)が先行し、ソニーはベータカムをデジタル化する時にD-4規格として認可を受けるはずであったのが、タイムコードを受け持つ部分がアナログであったため、認可が下りずに欠番になりました。
NHKでは、2008年時点では、D5を標準として映像の保存、編集、出力を行っているそうです。
以降、デジタル放送信号は、コンポーネントデジタル信号が主流となって行きます。
1993年に登場したD5-VTRは、デジタルカメラから直接映像信号を取り込み、デジタル信号で出力する機能を備え、ハイビジョンに対応していました。
D5-VTRの対抗機であるソニーのHDCAMは、V5-VTRが登場した4年後の1997年に開発されました。
以下に、デジタルビデオの原型であるD1-VTRの基本規格を示します。
 
【D1-VTR 規格】  
* 使用テープ:19mm(3/4インチ)
* テープ磁性体:酸化鉄塗布型
* 記録方式:ヘリカルスキャン方式
* 記録ヘッド数:4
* ヘッドドラム径:φ75mm
* テープ送り速度:約 286.6 mm/s
* 相対速度:約 35.6 m/s
* 信号方式:デジタル
* 圧縮: なし。
* 記録速度:80Mbps/ヘッド(総合 正味226Mbps)
* 情報源符号化方式:   
* 映像:非圧縮 8ビット 4:2:2コンポーネントデジタル
     コンポーネント輝度信号(Y)を13.5MHzでデジタル化。
* 音声:非圧縮 48kHz/20ビット直線量子化 x 4ch。
   
 
■ 4:2:2 コンポーネントデジタル信号(ITU-R BT.601) (2009.05.06追記)
 
4:2:2コンポーネント信号は、映像信号をデジタル処理する手法の1つであり、現在の放送用の信号として主流になっているものです。
NTSC信号は、輝度信号(Y信号)で明るさを決め、色差信号(Cb、Cr)で色を決めています。
アナログ信号であるNTSCでの色差信号は、輝度信号すべてにあてがわれているわけではなく、周波数の低い部位に対してのみ当てられています。
色づけ作業を真面目にやると、送信周波数帯域を大幅に上回ってしまうので、人の眼が映像を見て問題のない小さな部位領域では、色を付けずに輝度(明るさ)だけを表示させているのです。
デジタル信号である4:2:2コンポーネントデジタル信号においても、色を付ける方法はアナログ信号と同じような方式を採用し、輝度信号と色差信号から構成される映像信号を作り、細かい部位に対しては色を付けない方法を採用しました。
それが輝度信号4に対して色差信号をそれぞれ2つづつに割り当てたデジタル処理であり、これを4:2:2と呼びました。
輝度信号と色差信号を色空間の用語でYUV(ワイ・ユー・ブイ)とも言うので、YUV422と呼ぶこともあります。
上で説明したアナログ信号を、コンポーネントデジタル信号に変換する規格が、ITU-R BT.601として取り決められています。 ITUは、International Telecommunication Union(国際電気通信連合)の略で、Rは、Radiocommunications Sector(無線通信部門)を意味します。 この機関が策定した601番目の規格というのが、 ITU-R BT.601です。
この規格では、デジタル映像信号をYUV422で処理すると規定しています。
4:2:2コンポーネント信号とは、先にも述べましたが、輝度信号(Y)4(2画素 x 2画素)の情報に対して、色差信号の青(Cb)と赤(Cr)をそれぞれ2画素ずつあてがう方式です。
4つ分の情報を持つ輝度信号は13.5MHzでサンプリングされ、色差信号は13.5MHzの半分の周波数で交互に織り込む方式としました。
従って、色情報は輝度信号の半分しかないことになります。 この規格では、画像のサンプル数が垂直525本で、水平が858本、これを29.97フレーム/秒でサンプリングするため、
 
   525 本(垂直) x 858 本(水平) x 29.97 フレーム/秒 = 13.5 MHz   ・・・(Rec -28)
 
というサンプリング周波数が導き出されます。 実際の有効画面は、ブランキング期間があるので、上の数値よりも小さくなり480画素 x 720画素(この画素構成でも縦横比は3:4です)となります。 
映像情報に対しては、何度も言いますが、この方式が持つ色情報は半分ということになります。
ただ、記録される色情報は半分でも、色づけを行う処理ではすべての画素について色が割り当てられます。
これがアナログNTSC信号とは異なる所です。
NTSCでは、大まかな部分しか色をつけず、細かい所は明るさ(輝度)しか情報を持たせませんでした。(持つことができませんでした。)
また、YUV422では、デジタルカメラで一般的になっている、単板CCD素子のBayer方式よりも色づけに関してはきめ細かくなっています。
Bayerフォーマットでの色づけは、各画素に原色フィルタをつけて8ビット(256階調)の輝度情報を得ています。
色情報は、輝度情報とフィルタの配列から計算して4画素〜9画素分の情報から求めています。
反面、YUV422は、1画素に輝度情報と色差情報の合わせて16ビット(8ビット輝度情報 + 8ビット色差情報)を持つため、Bayerフォーマットより2倍の画像情報となります。
この点から、デジタル放送(YUV422)は、色づけに関しては真面目に対応していると言えます。
D1-VTRでは、この方法でカラー画像を記録していましたが、この処理がとても煩雑であったので、次ぎに出されたD2-VTRでは、これをやめて、NTSCアナログ信号を単純に量子化する方法にしてしまいました。
NTSC信号では、細かい部位での色情報がそぎ落とされてしまうので、これをデジタル化しても、きれいな画像を作り出すことはできません。
画質的は、コンポーネントデジタル信号にしたD1の方が優れていたのはこのためです。
 
色を作る処理には、YUV422のほかにYUV444、YUV420、YUV410という取り決めもあります。
YUV444は、全ての画素に色情報をあてがう方法なので情報量が一番多くなります。YUV410が最も簡便なデジタル録画方式となります。

 

 

 
■ ハイビジョン放送(アナログ放送とデジタル放送)(High-Definition Television)
テレビ放送も進化を遂げ、NTSC信号にとらわれない、より高精細のテレビ映像が開発されました。
それがハイビジョンと呼ばれる高品位テレビ(High Definition Television)画像です。
当初、ハイビジョン放送は、アナログから出発しました。
ハイビジョンの研究は、東京オリンピックが終わった1964年から始められ、8年後の1972年に規格提案がなされています。
ハイビジョン放送は、日本のNHK(日本放送協会)が精力的に開発を進めて、1989年から通信衛星を使って試験放送を始めました。 ハイビジョン放送では、画面を構成する走査線数を、従来のNTSCの525本から倍以上の1125本に設定し、16:9という画面構成をもっていました。
今の液晶テレビの主流になっている横長の画面構成です。
この信号を、そのまま送るのはとても容量が大きくなるので、独自の圧縮技術を開発しました。
これがMUSE(Multiple Sub-Nyquist-Sampling Encoding system)と呼ばれるものでした。
MUSEは、デジタルで映像の圧縮を行い、送信は従来のアナログ回線を使うためにFM変調伝送を行いました。
MUSEでは空間の圧縮(画素近傍は動きが少ないので間引いて情報量を少なくする方法)と、時間圧縮(動きのある情報はベクトルだけを記録して再生時に補間する方法)の双方を行っていました。
MUSEは、アナログハイビジョン方式の圧縮方式なので、現在のデジタルハイビジョンには採用されていません。
 
【アナログハイビジョン放送(MUSE)規格】
・ アスペクト比: 16:9
・ 総走査線: 1,125本(有効1,035本)
・ インターレース: 2:1
・ 再生速度: 60.00 フィールド/秒
・ 伝送サンプリング周波数: 16.2 MHz
・ 時間軸圧縮率: 12:11
・ 圧縮方式: フィールド間、フレーム間、ライン間オフセットサンプリング方式
・ 動きベクトル補正: 水平±16サンプル(32.4MHzクロック)/フレーム、 垂直±3ライン/フィールド
・ 音声: 48kHzサンプリング 16bit(2ch)、 32kHz 12bit(4ch: 3-1ステレオ)
 
NHKが主導で進めたこの規格も、欧米の放送業界のコンセンサスを得られず、NHK単独の開発となり、デジタルハイビジョンの発展の中で2007年9月に放送を中止しました。
 
【デジタルハイビジョン】
地上デジタル放送やハイビジョン放送という言葉が使われるようになって久しくなります。
地上デジタル放送は、2003年から運用が開始されています。
地上デジタル放送の大きな特徴の一つが、ハイビジョン放送です。
ハイビジョン放送は、先に触れましたようにNHKがアナログ放送で試験運用を続けていました。
その放送も終了して、現在はデジタルによるハイビジョン放送が主流となっています。
2006年あたりからテレビを販売するお店では、16:9の横長の液晶テレビが並べられてハイビジョン一色になりました。
ハイビジョンの定義は、比較的緩やかで曖昧な部分があるようです。
アナログハイビジョンは、放送を中止してしまったので除くとしても、2010年時点で、ハイビジョンと称しているもののには、以下の種類があります。
・ 1920画素x1080画素(インターレース)  --- 衛星放送によるデジタルハイビジョン(画面比 16:9)
・ 1280画素x720画素(プログレッシブ)  --- 地上デジタル放送によるデジタルハイビジョン(画面比 16:9)
・ 1440画素 x 1080画素(インターレース)  ---  地上デジタル放送によるデジタルハイビジョン(画面比 4:3)
  この中で、上の二つは画面比が16:9を持ったもので、一番下のものは画面比が4:3となっています。
(ただし、表示するときに、横方向に引き伸ばして、擬似的な1920画素x1080画素とします。)
 
放送局で使うテレビカメラは、1920x1080画素のハイビジョンカメラで整備されつつあるようで、このカメラで得られた画像を必要に応じてサイズ変換して利用されています。
1920画素 x 1080画素をもつハイビジョンを、フルハイビジョンと呼んでいます。
地上デジタル放送は、この画素での放送はできず、衛星放送の帯域でなければ見ることはできません(2010年時点)。
NHKなどの放送局では、フルハイビジョン対応のテレビカメラと編集装置で機器を整備して来ているようです。
フルハイビジョンの画像は、コンポーネントデジタル映像信号(ITU-R BT.601)で統一しています。
放送局内では、このデジタル映像信号を走らせるデジタル配線網が整備されていますが、この信号帯域は、以下の計算式で求められ、
 
2,200画素 x 1,125 走査線 x 10 ビット/画素 x (1 輝度 + 1/2 色差 + 1/2 色差) x 29.97 フレーム/秒 = 1.4835 Gbps  ・・・(Rec -29)
1.485 Gbpsの信号ラインが確保されています。
この信号を送るため、放送局内では、HD-SDI(High Definition - Serial Digital Interface)ケーブルが開発されました。
HD-SDIケーブルは、1.485 Gbpsの帯域に対応した同軸ケーブルです。
外見がBNCケーブルと酷似していて、取り扱いもほとんど同じなので、アナログ信号の時代からBNCケーブルに親しんできた関係者にとっては大変扱いやすいものになっています。
ハイビジョン放送は、この信号帯域で映像が作られて、保存・編集が行われますが、電波に乗せて送るときは、MPEG-2という圧縮手法によって、BS放送(衛星放送)では最高29Mbps、地上デジタル放送では最高23.3Mbpsで送られています。
およそ、1/30以上の圧縮がなされていると言えます。
   
 
■ セグメント放送(Segment Broadcasting) (2009.02.03追記)
2011年から本格的に放送が開始される地上デジタル放送では、セグメント放送が採用されています。
従来のアナログテレビ放送は、送信周波数90MHz(チャンネルでは1ch)から6MHz単位で12ch(222MHz)まで割り当てられているVHF帯域と、470MHz〜770MHz(300MHzの帯域に13chから62chのチャンネルが6MHz単位で割り当てられている)UHFの帯域がありました。
アナログ放送では、東京地方の1chがNHK、4chが日本テレビ、8chがフジテレビという具合に割り当てられていました。
デジタル放送では、アナログ放送で使っていなかったUHF帯域の13ch〜52chを、各放送局に割り当てました。
東京地方では、NHK総合が27ch、NHK教育が26ch、日本テレビが25ch、フジテレビが21chという具合です。
(ただし、従来のアナログで使っていたチャンネル番号が親しみやすいため、テレビ受信機のリモコン番号は、従来の番号、すなわち、東京地方のNHK総合テレビは「1」のままに設定されています。)
旧来の、6MHzの帯域を1チャンネル分とした枠組みを崩すことなく、この中にハイビジョン放送と音声、文字多重送信ができる工夫をデジタル技術に盛り込みました。
考えて見れば、すごい技術です。
旧来の送信周波数帯域の中に、ハイビジョン放送をデジタルで埋め込んでしまうのです。
デジタル放送では、映像帯域の6MHzを14等分にしたセグメント構造としました。
14等分したセグメントのうち1つは、隣り合わせたチャンネルとの干渉を避けるためのガードバンドに使用するため、放送コンテンツで使われるのは13個分のセグメントになります。
さらに、13個のセグメントのうち、1セグメントは携帯端末にサービスを行う情報セグメントチャンネルとしたため、実質的には12セグメントが地上デジタル放送分として使われています。
1セグメントは、429kHzに相当します。
「ワンセグ」と呼ばれるおまけの1セグメントはユニークな機能です。
全世界のデジタル放送規格は、大きく分けて3つありますが、ワンセグを採用している放送規格は、日本(とブラジル)が採用したISDB-T(Integrated Services Digital Broadcasting for Terrestrial )だけです。
欧州のDVB-TもアメリカのATSCもこの機能はありません。
日本だけが、ワンセグの価値を認めてこの方式を採りました。
 
■ 計測映像分野でのハイビジョンテレビの役割 (2008.12.16記)(2009.05.06追記)
 
▲ 計測分野での高精細カメラと放送用ハイビジョンカメラの違い。
ハイビジョン放送が家庭に入り込むようになって、高画質の動画を楽しむことができるようになりました。
ハイビジョンテレビが家庭に置かれたことにより、ハンディタイプの家庭用一体型デジタルビデオもハイビジョン対応になり、簡単に高画質動画を自分のテレビで楽しむことができるようになりました。
また、IEEE1394の高速インタフェースの開発によって、パソコンにもハイビジョン画像を取り込んで編集、再生、保存ができるようになりました。
 
我々のような画像を計測手段として使っているものにとって、放送局用のハイビジョン放送は有効でしょうか。
この問題を考えるときに大事なことは、両者の成り立ちを知ることだと思います。
放送映像は、連続した切れ目のない映像の提供が主命題であり、いかに魅力ある映像を作るか、つまり、視覚に訴える手法がもっとも大事であるのに対し、計測手段として使う高精細動画は、動画像を単に流して見るだけでなく、画像を止め、1コマ送ったり戻したり、ゆっくり再生をしたりします。
また、必要に応じて画像に物差し(カーソル)を発生させて、興味ある点(画素)の位置情報と濃度情報を求めることをします。
放送映像が流れるような視覚効果をねらうのに対し、計測映像は、計測要素(時間分解能、空間分解能、濃度分解能)を重用視します。
こうした観点から、放送局で行われている映像作りと、我々計測屋が関わっている動画像の違いを述べます。  
 
● 画面構成の縦横比のあいまいさ
テレビ放送では、幾何学的歪みに対する厳格さがありません。
これは、パソコンやデジタルカメラが普及して、テレビ放送にも影響を与えだした1990年代からとみに顕著になってきました。
というのは、デジタルカメラやパソコンの表示が1画素を縦横同じ寸法の正方画素で行っているのに対し、テレビ放送では、NTSCアナログ放送時代のCCDカメラに、縦横の比率が違う画素の個体撮像素子を使っていた経緯があり、これが混在してしまったのです。
NTSC規格では、走査線が525本と決められていたので、画質を向上させる必要上1走査線上の解像度を上げるために画素を詰めるようにしました。
DV信号というのがあります。
これは、NTSCアナログ信号をデジタル化したものですが、この規格では、画面を4:3というアスペクト比にして、画面を720x480画素構成としました。
一画素が正方画素であったら、3:2の画面比になる画素配列です。
これを4:3に収めているのですから、デジタルビデオカメラに使われている撮像素子の1画素の大きさは、横方向が縦に対して8/9(すなわち11.1%短い短冊状)にしなくてはなりません。
また、1990年代の終わりに、ハイビジョン放送に備えて16:9の画面比を持ったテレビ受像機が販売された際に、通常のNTSCの4:3( = 12:9)の画面を強引に横に引き伸ばして放映していた時期があります。
当然、円形のものは横長の楕円に、美人俳優も33.3%も横に太った体型として映し出されました。
テレビ放送では、33.3%の幾何学的誤差などあまり関心がなくて神経を使っていなかった感じを受けました。
映画監督が見たら腰を抜かしそうな画面でした。
デジタルハイビジョンの時代になっても、同じようなことがあります。
地上デジタルハイビジョンは、送信帯域の関係上、ハイビジョン画像は、1440x1080iしか送ることができません。
 
地上デジタルハイビジョンは、正式には1280x720pが正しい画素構成で、この画素が16:9を正しく維持している画面比です。
フルハイビジョン(1920x1080i画素)は、衛星デジタルハイビジョンか、DVD(Blu-ray)でなければ再現できないのです。
しかし、フルハイビジョン対応の受像機を持っている視聴者のために、1440画素を1920画素に増やす(33.3%も横長にしてしまう)機能があるそうです。
 
テレビ放送は、こと幾何学的な画面構成から言うと、正方画素のデジタル画像が後から出てきた規格のために、幾何学的歪みに対して非常にルーズな感じを受けます。
 
こうした機器を画像計測で使う場合には、縦横の倍率比を補正する必要があります。
 
● 圧縮による情報の損失
テレビ放送には、30フレーム/秒(29.97フレーム/秒)という絶対条件があるので、これが最も優先される規格です。
そのために、限られた送信帯域の中で見た目に許される画像情報の間引きを行いました。
デジタルテレビ放送では、MPEG-2が採用されました。
MPEG-2圧縮は、時間方向成分の圧縮を行っています。
これは、映画をDVDに収めるときに採用された圧縮方式です。
この方式では1枚1枚の独立した画像を持っておらず、1枚目と、ある間隔をあけた、例えば、10枚目を独立した画像で保存し、その間だけは、変化のある部分だけを保存するという方式になっています。
再生時、画像を構築するのに、高速処理をする画像処理装置が必要となります。
映画鑑賞では、計測分野のように、動画像を止めたり、スローで送ったり逆転再生をさせたりすることはまずないので、計測応用には、よほど強力な処理手法を使わないとストレスを感じます。
また、圧縮によっては、細かい部位が失われるので、希望する解析結果が得られない問題が出てきます。
放送局分野でもMPEG圧縮は編集がやっかいなので、オリジナル映像はフレーム毎に録画された素材で行うようにしているようです。
 
● 濃度情報のリニアリティ
テレビ放送では、人間の目に合うように、階調を調整して放映しています。
これは、再生側だけではなく、撮影側でも受像機の特性に合うようにラチチュードを調整しています。
計測分野では、画像をデジタル化するときに、階調を、例えば8ビット(256階調)で割り振る場合、リニアになるように処理します。
入射光量に対する濃度値が正比例し、かつその傾きが1(γ = 1)になる方法、つまり、10,000ルクスの被写体が濃度値で200あるとすると、1,000ルクスの被写体が20の濃度値になるような濃度曲線をとります。
この方が、計測にとっては理解しやすい(計算にのりやすい)ので、この方法をとります。
物体の明るさを測るときは、画像にカーソルを発生させて濃度プロファイルを取ったり、それを数値データとして表計算ソフトウェアに移したりします。
応用によっては、10ビット(1024階調)以上の濃度画像をとることもあり、この時にはすべての階調をコンピュータモニタに映し出すことはできません。
液晶モニタは、せいぜい100階調(から200階調)程度しか表示できないのです。
しかし、テレビ放送の場合は、最初に、テレビ受像機(ブラウン管や液晶ディスプレー)の映り具合を含めて、画像の写り具合が人間の感性に合うように調整しますので、撮影の際の取り込みは、必ずしも直線になっていません。
暗い部分のディテールを若干残して、かつ明るい部分を飛ばさないように階調を調整しています。
こうしたカメラを計測用に使うには、階調のよくわかった濃度タブレットを撮影して、キャリブレーションをとる必要があります。
また、通常のカメラは、使用温度(撮像素子温度)によって感度が変化するので、キャリブレーションは頻繁に行う必要があります。
 
● 時間スケールのあいまいさ
計測屋にとって、時間ファイターほど重要なものはありません。
一枚一枚の画像がどの時間タイミングで得られたものか、はたまた、一枚の画像に与えた露光時間はどのくらいか、露光方式はレーザかキセノンストロボか、電子シャッタかなど、時間に関するファクターに細心の注意を払って画像を見ます。
方やテレビ放送では、与えられた番組時間内に放送を無事に終了させるという約束があるため、枚数の詰め込み作業が大きな関心事となります。
時間を引き延ばして見せたり短縮させて見せることは映像表現の一手段であり、時間軸を正確に表現することは、それほど重要なことではないようです。
科学番組を見ていても、進行役は現象がよく見えたか見えないかに焦点を置いて、撮影された映像の撮影速度がどのくらいで、それをどのくらいの再生速度で放送しているかという説明や表示がありません。
我々の分野で高速度カメラを使ってスローモーション再生を行うと、担当するエンジニアは、まずこの映像がどのくらいの速度で撮影されたかを聞いてきます。
そして、画像の隅に時間情報のわかる表示を入れてくれと要求します。
それほど、現象を究明している人にとっては時間軸は大切なのです。
 
 
 
 
■ コンピュータによるデジタル画像 (2009.02.08)(2009.05.28追記)(2012.10.09追記)  
 
コンピュータは、デジタルしか扱えないので、コンピュータで扱う画像も当然デジタル画像となります。
コンピュータによるデジタル画像は、1965年、NASAが行った火星探査衛星の火星表面の画像化に始まります(「最初のデジタル画像」の項目参照)。
火星からの画像データは、NASAにあったIBM科学計算用コンピュータ「7094」(1962年開発、当時、日本円にして11億円の高級コンピュータ)にかけられて、画像処理をした後、火星表面のマッピングに成功しました。
1981年から登場したパソコン(IBM-PC、及びApple Macintosh)の発展により、デジタル画像を扱う応用が急速に増えて、DTP(デスクトップパブリッシング)という分野が確立します。
パーソナルコンピュータを使ったデジタル画像は、当初、フィルム画像をフィルムスキャナーでデジタイジングすることから始まりました。
当時(1980年代後半)は、デジタルカメラはありませんでした。
ビデオカメラからのNTSCビデオ信号は、ビデオキャプチャーボードを介してデジタル画像に変換されました(右図参照)。
1980年代のパソコンは、高画質の画像を扱うには、CPUの性能や画像表示能力、画像を保存するメモリ性能などが不十分でした。
そのため、パソコンを補助する機能がまず発達します。
それが、画像ボード(右図 - 4)と呼ばれるものでした。
パソコンのCPUにできるだけ負担をかけずに、画像入力側でやれるべきことはすべてやってしまおうという考えだったのです。
 
 
■ バス規格
画像ボードでデジタル画像に変換されたデータは、コンピュータのデータバスによって、処理装置(プロセッサ)やDRAMに送られます。
1984年当時、IBM-PCパソコンに標準で装備されたボード規格は、ISA規格(Industry Standard Architecture)というもので、16ビットで8MHzのクロック(16MB/s)を持っていました。
ISAは、時代とともに若干の性能向上が行われました。
しかし、CPUの性能向上の方がおどろくほど早く、ISAバスの性能があまりにも見劣りするようになったので、1991年に、25倍の性能を持つPCI規格(Peripheral Component Interconnect)を作り上げました。
この規格は、比較的長寿で、18年経った2009年にあっても第一線で活躍しています。
画像を取り込む画像ボード(キャプチャーボード)は、この規格に準じたものが多く作られました。
2002年には、PCI Expressという規格が作られ8GB/sの高速転送ができるようになりました。
ただ、IEEE1394やUSB2.0、ギガイーサネットなど簡単な接続で高速通信ができる規格が整備された2000年以降は、PCIバスを使った拡張ボードに代えてこうした規格によるデバイスが作られはじめ、カメラ側でもこうしたインタフェースを介してコンピュータに取り込まれることが多くなりました。
従って、PCIバスに差し込んで使う拡張ボードは、需要が急激に落ちました。
 
 
■ 高速通信規格
パソコンの性能が向上して、通信方式が高速化し、デジタルカメラの性能が格段に進歩するようになってくると、画像を直接コンピュータに取り込むことが可能になりました。
デジタルカメラの出現は、1990年代に入ってからです。
1000x1000画素のいわゆるメガピクセルカメラの登場をもって真のデジタル画像の時代に入ったと言えるでしょう。
こうした時期に、データを高速で取り込める、イーサネットIEEE1394USB2.0が登場しました。
これらのデータ通信規格は、データ転送速度もさることながら、使い勝手も良かったので計測カメラ用のデータ通信ポートとして広く使われるようになりました。
 
 
■ 画像取り込みの基本
右上図に、コンピュータを使った画像取り込みシステムの構成を示します。
図中の右側の箱(5.画像プロセッサ部)が、コンピュータの中身です。
コンピュータは、中央演算処理装置(CPU)を中心として、デジタル処理される周辺機器が接続されています。
中央演算処理部からは、データの出入りする中央幹線道路(システムバス)が走っていて、このバスにハードディスク(HDD)や、メモリ(DRAM)、画像表示ボード、画像取り込みボード(画像キャプチャーボード)、マウス、キーボードなどが接続されています。
コンピュータに取り込まれるデータが膨大で、コンピュータの処理能力を上回る時は、外部でいったんデータを蓄えて、コンピュータの能力に併せて送り出すバッファ装置を設けたり、画像キャプチャボードを作ってコンピュータに接続しています。
コンピュータを使った画像の取り込み性能は、  
カメラ自体の取り込み速度 < (1/2) x 画像ボードの取り込み性能
  < (1/10) x システムバスの転送速度 < (1/2) x CPUの性能  ・・・(Rec -30
というおよその関係になっています。
カメラがいくら高性能で取り込み速度が速くても、画像キャプチャーボード側がカメラの読み込み速度の2倍以上の取り込み速度を持っていなければ、カメラの性能を十分に発揮することはできません。
また、それ以上に、パソコンのシステムバスの速度、CPUそのものの性能が十分であることが求められます。
例えば、1280x1024画素、8ビット白黒のカメラがあり、1秒間に30枚の割合で撮影でき、ファイル加工せずにそのままデータを転送したとすると、1秒間に送るデータ量は、  
1280画素 x 1024画素 x 8bit/画面 x 30画面/秒 = 314.57 Mbit/s  ・・・(Rec -32)
となります。
この速度は、ISAバス(128Mbit/s)ではとても対応できない速度であり、PCIバス(4Gbit/s)では1/10の速度ですから十分に対応できます。
したがって、このカメラは、PCIバスの画像ボードが必要となり、これを経由して、パソコンのDRAMに読み込むことが可能となります。
取り込んだ画像を、パソコンで希望するファイルフォーマット、例えばBMPとかJPEGに変換する場合に、画像データを取り込んだ端から処理を行うと、CPUとDRAMには、画像の取り込みとファイル変換保存という二つの仕事が課せられ、双方に仕事の割り当てを振らなければなりません。
したがって、その処理を受け持つCPUには、32ビットで400MHz以上の性能を持ったものが望まれます。
一般的に、イーサネットにしてもUSBにしても、カタログ値にあるデータ転送速度を常時確保することはとても難しく、せいぜい1/10程度の性能と言われています。
各デバイスは、こうした理由から、そうした冗長性を踏まえてシステム構築を行う必要があります。
ノートパソコンは、デスクトップパソコンに比べて、CPUも比較的非力で、システムバスも高速に作れられていないので、高速転送を主目的とするならば、デスクトップパソコンを使用した方が無難です。
なぜノートパソコンがデスクトップに比べて性能が劣るのかと言えば、ノートパソコンは携帯性が重要視されるため、消費電力の大きな高性能CPUを搭載することが難しく、また、CPUやシステムバスが載るマザーボードはコンパクトに作らなければならず、そうすると発熱が大きな問題となるため高速にできないのです。
ノートパソコンには、拡張スロットとしてPCカード(1993年、16ビット、5MB/s)、CardBus(1995年、32ビット、132MB/s)が使われ、2003年にExpressCardが策定されました。ExpressCardは、500MB/sの転送速度を持っています。
   
 
■ コンピュータの仕組み
画像をコンピュータに取り込むとき、コンピュータの仕組みを知っておくと、デジタル画像の本質をより深く理解して利用することができます。
そこで、コンピュータがどのようにデータ処理をしているか、ハードウェアの観点から見てみることにします。
下図に、2008年当時のパソコンの内部回路を示します。
 
▲ CPUの性能
CPU(Central Processing Unit)は、コンピュータの中枢部中の中枢です。
人で言うと、脳に相当します。CPUは、クロック(内部発振信号)に合わせて演算を行います。
従って、CPUの性能は、クロック周波数と扱うデータビット数でおおよそ決まります。
パソコン(1974年、Altair8800)ができた当初のCPUは、Intel8080で、8ビット、2MHzの性能を持っていました。
これは、256個のデータを1秒間に2百万回のスピードで処理する能力を持っていました。
現在のCPUは、64ビットのデータビット数で3.2GHzの性能を持っています。
実に1垓倍(1兆の1億倍)のデータ量を扱える性能になりました。
1秒間に2百万回も演算をするというのは相当なスピードだと思えるのですが、画像(画面表示)を扱うと、その数値もうすのろになってしまいます。
画像表示を単純計算すると、VGA(640x480画素、24ビットフルカラー)での60フレーム/秒表示は、8ビット、55.3MHzのCPUが必要となります。
初期の8ビットマイコン、Intel8080を使うと、27秒かけてやっと一枚のVGAビット画像が表示できる性能しかありませんでした。
ちなみに、当時はCPUで直接画像描画することは不可能だったので、キーボードから打ち込んだキャラクターをキャラクタージェネレータに渡して、そこでVGA画面を作って画像表示を行うようになっていました。
日本語のパソコンでは、パソコンに漢字ROMと呼ばれるチップが内蔵されていて、キーボードから打ち込んだコードをここで漢字変換させてキャラクタージェネレータに送っていました。
当時のパソコンは、文字表示しかできない性能だったのです。
 
▲ システムバス(FSB = Front Side Bus、及び、NB - SB Data Bus)
システムバスは、CPUにデータを送ったり、CPUの処理結果を関連デバイス(モニタ、HDD、DRAMなど)に送り出すデータ線です。
人間で言うと、脊椎を通って走る中枢神経に相当します。
このデータバスの広さ(ビット数)と速さ(クロック)がコンピュータの処理能力に大きな影響を与えます。
システムバスの能力が低いと、データ送受信で交通渋滞がおきます。
システムバスでは、DRAMへデータを転送とモニタ表示のための信号送信の二つが一番大きな負荷となっています。
システムバスは、CPUのデータビット数と対をなして、関連デバイスとつながっています。
従って、64ビットCPUであるならば、64本のデータバス線で構成され、CPUにデータを供給し、また、処理されたデータをCPUから関連デバイスへ送ります。
その速度は、クロックで533MHz〜1,333MHzです。
このスピードは、CPUの性能とチップセット(ノースブリッジとサウスブリッジ)の性能の兼ね合いで決められています。
システムバスのクロックが速い方が、高性能であるということが言えます。
 
【Core i7のシステムバス: QPI=Quick Path Interconnect】
インテルが2008年に発売したCPU、Core i7は、新しいシステムバスQPI = Quick Path Interconnect を採用し、その転送速度は25.6GB/s ( = 6.4GT/s:ギガバイトトランスファ毎秒)です
 
▲ BIOS(Basic Input Output System)
BIOS(ばいおす)は、コンピュータの根本情報を持っている部分で、人間でいうと脳幹にあたります。
データの出し入れの情報をこの部分で担当しています。
BIOSは、パソコンのOSが開発された1975年から存在している重要なデバイスで、CPUと周辺機器の橋渡しをする役割を持っていました。
これがないと、フロッピーに書き込んだファイルを読み出すことも、書き込むこともできません。
1981年にIBMがパソコンを開発した時に、IBMは、すべての規格をオープンにして、FDD(フロッピー・デスク・ドライブ)やDRAM(ランダムメモリ)、HDD(ハードデスクドライブ)、モニタなどをいろいろなメーカに作らせて競争させました。
しかし、ただ一点、コンピュータ部品に法的なプロテクトをかけて、他のメーカに作らせないようにした部分があります。
それがBIOSだったのです。
BIOSは、不揮発性メモリで構成されたプログラムです。
IBMは、このBIOSのコードをすべてオープンにして、逆に違法コピーさせないようにしました。
このBIOSが作れないかぎり、コンピュータはたんなるガラクタ箱です。
IBMは、ここを徹底的に保護することによって、自分たちのパソコンを保護しようとしました。
しかし、この戦略はものの見事にはずれて、IBMの開発したBIOSと完全互換を持ちながら、まったく違ったコーディングで書かれたBIOSが作られました。
それを作ったのはコンパック(Compaq)とフェニックステクノロジーでした。
このBIOSを手に入れれば、IBM-PCと互換のあるコンピュータが作れるようになったのです。
こうして、コンパックを初めとしたクローンPCが台頭し、それに伴い、競争原理は世界レベルとなり、パソコンの急速な発展が始まりました。
 
▲ ノースブリッジ(Chip set North Bridge)
ノースブリッジは、コンピュータ(CPU)からの指令を受けて、最適なデバイスにデータを転送する司令室の働きをします。
パソコンには、システムバスにノースブリッジとサウスブリッジの二つが接続されていて、CPUとのデータ転送における制御管理を行います。
ノースブリッジでは、高速データ転送デバイスの制御を行い、サウスブリッジでは、低速データ転送を行うデバイスの担当を行っています。
これは、CPUにつながるデータバスを高速道路と一般道路に見立て、通信速度に応じてデータバスを使い分けるという考え方に立って、データ転送が遅くても良いもの(マウスの動きやCDからのデータ読み書き)と、常時、高速でデータ転送を必要とする画像表示やDRAM間での交通渋滞を解消する目的を持っています。
ノースブリッジでは、従って、DRAMのデータ転送や、グラフィック処理をするデバイスとつながっています。
DRAMやグラフィック表示が、処理を最もたくさん行っているデバイスとなります。
興味あるのは、PCI Expressボードです。
このボードは、ノースブリッジに接続されています。
非常に高速でデータ通信を行うために、ここに配置されています。
 
 
▲ サウスブリッジ(Chip set South Bridge)
サウスブリッジは、比較的データ転送の遅い非定期的なデバイス通信管理を行う司令塔です。
ここに、HDDや、CD/DVD、USB、イーサネット、PCIといったインタフェースがつながります。
例えば、イーサネットからデータを受信してハードディスクに保存する場合には、サウスブリッジだけの管轄でデータ処理を行うため、CPUが占有される割合を低くすることができます。
このように、ノースブリッジやサウスブリッジは、CPUの代理を兼ねることもしています。
 
▲ DRAM(Dynamic Ramdom Access Memory)
DRAMは、コンピュータに実装されている作業用メモリであり、OSが立ち上がる際にこのメモリにOSが移植されて常駐します。
WordやPhotoshopなどのアプリケーションソフトを立ち上げると、HDDに保管されているソフトウェアがこのメモリ部にコピーされます。
また、コンピュータで処理されるデータも、全て、一旦ここに保管され、メニューの「保存する」というボタンでハードディスクやメモリスティックに保存されます。
なぜ、OSやアプリケーションソフトがDRAMに移されるのかというと、DRAMは、アクセスがとても速いからです。
DRAMは、コンピュータが働いているときの作業場としての機能があるので、広ければ広いほど(メモリ容量が大きいほど)、そしてアクセスが速いほど快適で高性能と言えます。
現在(2009年)のDRAMは、1GB〜4GBまでをコンピュータに実装することが多いようです。
このメモリは、コンピュータを購入した後からでも追加で取りつけることができます。
1990年当時のDRAMはとても高価で、2MBで20,000円程度していました。
DRAMは、その特性上、素子に絶えず電気を流してメモり内容をリフレッシュし続けていないとメモリが消えてしまうので、コンピュータの電源を切ると、この作業場の記憶は消えてしまいます。
 
現在(2009年)のDRAMの書き込み・読み出し速度は、0.2GB/s〜3.2GB/sです。1,000 x 1,000画素の8ビット白黒もしくはデータ映像なら3,000コマ/秒で取り込める性能値です。(「半導体メモリ」参照。)
 
▲ AGP(Accelerated Graphic Port)
AGPは、コンピュータディスプレーの表示のための通信ポートです。
コンピュータの働きの中で、もっとも負荷のかかる仕事が画面表示です。
単純計算で、1秒間に60フレームの割合で、1280x1024のフルカラーを表示させるとすると、
 
1280 画素 x 1024 画素 x 3 バイト/フレーム x 60 フレーム/秒 = 235.9 MB/s   ・・・(Rec -33)
 
のデータ転送能力が必要です。実際は、常時、これだけの情報をCPUからディスプレーに送ってはおらず、変化した情報だけを送ったり、画像表示ボード部にメモリと画像プロセッを搭載して、ローカルに画像表示を担当させ、CPU部の仕事を軽減させて表示能力を高めています。AGPでは、ディスプレーの高解像度表示を満足させるために、266MB/s〜2.13GB/sの転送能力を確保しています。
 
▲ PCI Express(Peripheral Component Interconnect Express)規格
PCI Expressは、2002年に策定された新しい拡張インタフェースボードの規格です。
このインタフェースは、高速通信が可能であるため、ノースブリッジを介してCPUにつながれています。
その通信速度は、8GB/sであり、従来のPCIより16倍も高速になっています。
この性能は、画像表示用のポートであるAGPよりも、3.7倍から30倍ほど速いので、PCIExpressを使った画像表示ボードも作られています。
PCI Expressは、レーンという規格があり、1レーンから16レーンまであり、パラレルデータ転送を可能にしています。
その速度は概ねレーン数に比例します。
PCIe x1で500MB/sの速度を持ち、PCIe x16で8GB/sの速度を持っていました。
この速度は1世代目のもので、これをPCIe Gen1と呼んでいます。
2世代目のPCIeは2006年に策定され2倍の速度(1GB/s〜16GB/s)を持っています。
3世代目のPCIe Gen3は、2010年に策定され2世代より倍の転送速度(2GB/s〜32GB/s)を持っています。
 
 
▲ PCI(Peripheral Component Interconnect)規格
PCIは、パソコンでもっとも普及した拡張インタフェースボード規格です。
1991年に規格化されました。いろいろな付属装置がこのインタフェースボードを介して接続されています。
NTSCアナログ信号による画像ボードや、アナログデータ収録装置、イーサネットボード、SCSIボードもこの規格を使っています。
パソコンができた当初(1981年)は、ISAバスという規格が一般的でした。
ISAバスは、16ビットで10MHzの通信速度(20MB/s)しか持たなかったので、500MB/sの速度を持つPCIは、ISAに比べて25倍も速い性能を持っていました。
PCIボードは、2009年時点でもまだ第一線で活躍しています。
ただ、高速画像ボードのように、この性能に不満のある拡張ボードもあり、そうした応用には、PCIの16倍の性能を持つPCI Expressに置き換わりつつあります。
2012年の時点では多くのデスクトップパソコンにPCI Expressが採用されています。
 
▲ USB、イーサネット、SCSI、IEEE1394、他
外部装置とデータ通信を行うための規格です。
パソコン内部では、比較的低速の速度領域に位置しています。これら個々の規格については、データインタフェースで詳しく触れています。

     
 
■ 画像の転送 (2004.10.24)(2009.03.30)(2018.11.19 追記)
 
パソコンで動画が見られる、それも高画質で! 今では当たり前のことが、14年前(1995年)には考えられないことでした。 1995年当時は、静止画像をインターネットで送ること自体でさえも至難の業だったのです。
それが2000年くらいから、普通のパソコンを使って高解像度のデジタル画像をストレスなく扱えるようになりました。
一般のパソコンで膨大な画像データを扱えるようになったのは、
 
・ CPUが高速になったこと、
・ 大容量の記憶装置が安価になってきたこと、
・ 画像を転送する手段が高速になって来たこと、
・ 画像フォーマットが巧妙になったこと
 
などが挙げられます。
1990年までは、データのデジタル転送と言えば RS232C が一般的でした。
当時、RS232Cは電話回線を使ったデータ通信時代の主役でした。
このデジタル通信は、1秒間に9,600ビットのデータが送信できました。
それが2000年には、ギガベースのイーサネットが確立し、IEEE1394という高速通信の規格も決まり、さらにUSB2.0という使いやすい規格も出来上がりました。
こうした恩恵に預かって、さらに画像データファイルの圧縮(JPEGやMPEG)という技術が向上して、100万画素を超える画像をストレスなく記憶装置に貯えることができるようになりました。
2010年以降はUSB3.0規格、Thunderbolt規格が登場しより高速でのデータ通信が可能となりました。
  この項では、画像データの通信手段について述べて見ようと思います。
 
この項を最初(1998年)に書きはじめて、今年2012年で14年の歳月が立ちました。 テクノロジーは恐ろしく進歩するものです。
家庭用AV機器に使われているアナログ信号端子。米国RCAが開発したのでRCA端子と呼んでいる。
 
 
【NTSCビデオ信号の送信について】 (2006.09.02追記)
 
1940年代後半から、現在(2003年)までテレビ放送に長く君臨してきたNTSC規格は、一秒間に30枚の映像を4.2MHzの帯域で情報処理して送信することができました。
この信号は、何度も述べていますがアナログ信号でした。
1990年までの技術では、同じ内容の映像信号をディジタルで送ることはできませんでした。
その理由は、アナログ信号では、送信帯域の4.2MHzが解像力に相当し、信号の振幅成分がダイナミックレンジに対応するのに対し、ディジタル信号ではダイナミックレンジ8ビット分も周波数成分に直さなければならず、帯域が不足してしまうからです。
一枚の画像を、最も古い通信規格であるRS232C通信で転送することを考えてみましょう。
この時、送信する画像は、512画素x512画素、 8 ビット(白黒)で量子化(ディジタル化)したものと仮定します。
RS232Cは、1秒間に最大9,600ビット(= 9,600baud、9,600 bps)のデータを転送できます。
これを単純に計算すると、
 
  512画素 x 512画素 x 8ビット/画面 x 1/9600 ビット/秒 = 3分40秒    ・・・(Rec -34)
 
となり、最高の転送速度でも、1枚の画像を送るのに3分40秒かかることになります。
NTSC信号(アナログ画像)では、この時間に6,600枚の映像が送れました。
実際のところ、RS232C信号では信号の転送を確実にするために、データの切れ目にストップビット、パリティチェック、Xパラメータなどが入り、これにより3 〜 5倍の転送時間がかかります。
このことから、RS232C(FAX、コンピュータモデム通信も似たようなもの)を使って映像を送ることがいかに気の遠くなるようなことなのかが理解できると思います。
アナログ信号による撮影と記録は、デジタル通信速度が遅い時代には、確固たる強い地位を築いていたのです。
以下、データ転送技術の変遷を説明したいと思いますが、その前に高速大容量データ転送を支えたケーブルとその接続方法(コネクタ)について紹介します。    

 
 
■ コネクタとケーブル  (2009.06.11追記)
 
【映像信号を送るコネクタと通信方法について】
 
映像信号は送る情報が多いので、アナログ、デジタル時代を問わず送信技術や接続するコネクタ開発に多くの労力が払われてきました。
以下、大容量、高速通信に使われたコネクタとケーブル、通信規格について紹介します。
電気信号、特に、映像情報などを含めた周波数の高い情報信号を送る方法については、これまでにいろいろな方式が考案されてきました。
コネクタは信号ラインを接続する所で、しっかりと接続されていないと信号がとぎれたり、減衰したり、ノイズが入ったりします。
コネクタは、また、着脱が容易でなければなりません。
容易、かつ、信頼性の高いコネクタが理想のコネクタとなります。
信号を送る電線では、高速大容量データ通信に、従来、同軸ケーブルと呼ばれるものが使われてきました。
これは、アナログ/デジタル両方に使われ、歴史的には海底ケーブル通信、テレビ放送、ビデオ放送に使われました。
また、デジタル通信の時代に入ると、ツイストペアと呼ばれる1対の信号線による不平衡信号が使われるようになりました。
そうした信号形態に合わせてコネクタが開発されました。
 
 
 
■ RCAコネクタ/ケーブル 
米国の音響・映像メーカーRCA(Radio Corporation of America)社が、1940年代に開発した音声信号の接続端末コネクタをRCAコネクタ(右写真。使用周波数: 10M Hz)と呼んでいます。
このコネクタは、蓄音機(レコードプレーヤ)の音声信号をアンプに接続するために開発されました。
RCAコネクタは、安価であることと、使い勝手が良いこと、性能が良いことから一般的になり、オーディオ機器にはすべてこのタイプの端子が使われていました。
ビデオの時代になっても家庭用の信号ケーブルにはRCAコネクタケーブルが使われました。
映像信号でも家庭用のビデオ帯域の使用であるならば、十分な性能を確保できたものと考えます。
しかし、放送局や周波数の高い信号を扱う分野では性能が満足できなかったので、以下に示すBNCコネクタが一般的になりました。
RCAコネクタは、比較的太い正極棒が中心にあり、その周りを「割り」の入ったグランドターミナルで囲んでいます。「割り」が入っているのは、バネ効果を利用してプラグ装着時の接触性を良くするためです。
コネクタのピン接続は、電気信号を通信する上でトラブルの多い部分です。
ピンの接続は、微視的に見ると面で接触しておらず点で接触しています。そのためにバネ作用によってコンタクト面を圧着させています。
また、コンタクト面に金メッキを施して接触性を高める工夫もしています。
現在のRCAケーブルは家庭用のアナログAV機器によく使われていて、右に示したような色分けしたケーブルで、映像信号(黄色)、音声信号右側(赤色)、音声信号左側(白色)という取り決めがなされています。
アナログ信号は、デジタル機器が主流になってきている現在にあっては使用されなくなる傾向にあります。
   
 
■ BNCコネクタ/ケーブル、映像出力インピーダンス(75Ω)
ビデオ信号をVTRやモニタに接続する際に使用する接続ケーブルを、我々は何気なく「75Ω同軸ケーブル」と呼んでいます。
ビデオ信号用コネクタは、BNCと呼ばれるワンタッチで接続できるコネクタと、RCAと呼ばれるピンジャック方式のコネクタが使用されています。
BNCは、RCAに比べると高価なコネクタで、放送局用や計測機器などの高級な装置に使われます。
ピンジャック(RCA)コネクタは、家庭用のオーディオ、ビデオ機器などの低い周波数(10MHz程度)用のケーブル接続に使われています。
映像信号は周波数が高い信号で、流れる電流も少ないので、ノイズに対して敏感に反応します。
接合部(コネクタ部)では信号速度が変化するので、高周波信号であるほどその問題は顕著になります。
BNCコネクタは、映像信号を扱う帯域では、こうした問題をクリアするものでした。
高周波信号を扱うコネクタは、今述べているBNCコネクタの他に、M型コネクタ、N型コネクタ、F型コネクタが使われてきました。
こうしたコネクタは、通信分野で培われ発展してきました。
 
BNCとは、Bayonet Neill Concelman connectorの短縮名称です(開発した人の名前から来ています)。
 
BNCがBritish Naval Connectorとか、Bayonet Nut Connectorとも呼ばれていますが、いずれも誤りです。
BNCコネクタが使われる前には、N型コネクタ(下写真参照)と呼ばれる高周波信号用のケーブル結線コネクタがありました。
これは、BNCより一回り大きなねじ込み式の耐水型高周波対応(12GHz)のものでした。
N型コネクタは、ベル電話機研究所のPaul Neill(1882.09.06 - 1968.10)が1940年に開発しました。
また、Cコネクタ(使用周波数: 12GHz)はAmphenol社(コネクタで有名な米国の会社)のエンジニアCarl Concelman(1912.12.23 - 1975.08)によって設計され、放送局用のビデオ信号コネクタとして使用されていました。
この二人(NeilとConcelman)の設計したコネクタの良い所をとって、より簡単に確実なコネクタを作ろうということで、1940年代に作られたのが
BNCコネクタだったのです。
BNCは、人の名前を取ってつけられた名前です。
BNCコネクタの使用周波数帯域は、2GHzとなっていて、N型コネクタの12GHZよりも一桁も低い性能ですが、取り扱い勝手がよいので、周波数帯域の低いビデオ信号用に重宝されました。
BNCコネクタは、イーサネットケーブルの初期のタイプの10Base-2 にも採用されました。
また、デジタル放送の通信ケーブルのHD-SDIにもBNCコネクタが使われています。
同軸ケーブルは、ケーブルの芯が銅線でできていて、その回りをポリエチレンなどの絶縁物で覆い、さらにその回りを網状のシールド線で覆っています。
電気を流す時、ケーブルが長いと抵抗が増えて遠くまで流しずらいという性質があります。
不思議なことに、交流を流す場合にケーブルの持つ直流抵抗(オーム)とインダクタンス(誘導)、それにキャパシタンス(容量)を特定の値にしておくと、ケーブルの長さに関係なく、高周波数に対し一定のインピーダンス(交流の抵抗値)を示すようになります。
つまり、(交流)インピーダンスの取れたケーブルを使うと、ケーブルの長さに関わらず電気信号(高周波信号)を損失なく伝えることができ、5mでも40mの長さでも良好な電気信号を得ることができます。
一般の同軸ケーブルは、現在、50Ωと75Ωの2系統あります。
75Ωはビデオケーブルによく利用され、50Ωは、通信ケーブルや、コンピュータの初期のイーサネットケーブルに使用されました。
 
BNCコネクタ。
「N」型コネクタと「C」型コネクタを組み合わせバヨネットタイプとした。両者よりも小型化した。
「N」型コネクタ。
BNCの原型。ねじ込み式。
「C」型コネクタ。
BNCの原型。メスのアースに取り付けられた2つの突起(stud)にひっかけて着脱する方式はBNCと同じ。
 
 
■ 耐環境コネクタ
高性能電子機器を屋外で使用したり厳しい環境で使用する時に使われるコネクタが、以下に示すような耐環境コネクタです。
こうしたコネクタの製造規格はアメリカの軍規格(MIL-spec)が定評があり、宇宙開発分野や産業用分野(自動車搭載の計測機器)でもこの規格に準拠したコネクタを使うことがあります。
ミルスペック(MIL-spec)コネクタはしっかりと接続できる構造になっており、振動や衝撃に対しても簡単に緩んだり損傷しないことが求められています。
また、温度条件に対しても厳しく規格が決められています。
最近では、コンピュータを用いた通信データにもこの種のコネクタが使われ、高い周波数を伴う信号に対して特性が良く且つEMI対策が施されたものになっています。
接続ピンとソケットは、良好な接触面を得るために、金メッキが施されています。
 
提供: Amphenol社  
航空機や船などの環境性が重視される分野では、上図に示したコネクタが使用される。 このコネクタは、Tri-Startと呼ばれるもので、MIL-DTL-38999規格を満足したものである。 このコネクタは、1回転で10mm強のねじ込みが可能となっている。
シェルは、ステンレス構造で、電磁ノイズに対する配慮がなされ、海水に対する防蝕にも配慮がなされている。
 
 
 
■ HD-SDI(High Definition - Serial Digital Interface)ケーブル (2008.06.19記)(2009.04.01追記)
BNC同軸ケーブルを使った映像伝送はとても扱いがよいので、放送局では映像・音声信号の標準ケーブルとして使われてきました。
BNCコネクタは、着脱が容易であるのに加えて確実な結合ができ、しかも周波数特性が良かったので、この分野で大いに普及しました。
この同軸ケーブルとコネクタが一般的になってしまったため、ハイビジョンデジタル放送を始めるにあたっても、この長所を生かしたケーブルとコネクタが残されて、デジタル信号が規格化されました。
HD-SDIは、1994年に規格化されたデジタル信号で、テレビ放送業界にあっては新しい規格です。
 
HD-SDIの詳細は、HD-SDI規格に譲ります。
ハイビジョンデジタル信号は、ここで説明している規格よりももっと後に取り決められたものなので、この項ではBNCコネクタがデジタルの時代になっても引き継がれたことを述べるにとどめます。
 
古い規格のアナログ映像信号(NTSC)用ケーブルが、ハイビジョンケーブルに使えるかというと、もちろんそれは違います。
コネクタは同じ形状のものを使っていますが(細かく言うと、結合の信頼性などで改善されている)、同軸ケーブルの径や材質が異なります。
また、BNCプラグにおいてもグレードの違いにより使用帯域が異なります。
ハイビジョンが扱っている1.485Gbpsの信号情報は、とても高い映像周波数なので、旧来のアナログ信号用の同軸ケーブル(3C-2Vケーブル = 75Ω同軸ケーブルの一般的な規格)では信号の減衰が大きく、長距離(100m程度)伝送が難しくなります。
 

 

   
 
■ 不平衡ケーブル(unbalanced cable)と平衡ケーブル(balanced cable)  (2009.02.23)(2009.04.14追記)
信号ケーブルを扱っていると、不平衡ケーブルとか平衡ケーブルという名前をよく聞きます。
映像信号などには、同軸ケーブルを使った不平衡ケーブルが多く、イーサネットケーブルなどには、1対(2本)の撚り線による平衡ケーブルが使われています。
こうしたケーブルは、どのような特徴があるのでしょうか。
単に電気を導体に流すだけであれば、電気抵抗の少ない素材のものを使えば問題ありません。
しかし、微弱な信号を扱う場合や、周波数の高い電気信号を長い距離に渡って伝送する場合は信号の減衰が激しくなったり、外部からのノイズ混入によって正しい信号が送れなくなる不具合がでます。
こうした不具合を解決するために作られたものが、平衡ケーブルや、不平衡ケーブルです。
平衡ケーブルは、以下の図に示すように二本の信号線にそれぞれ位相が反転した信号を送るケーブルです。
双方に対称的な信号が乗っているので平衡(balance)信号と言います。
デジタル信号の時代になると、平衡信号は、差動信号(Differential Signaling)と呼ばれるようになります。
不平衡ケーブルは、一方の信号線にのみ信号を乗せ、もう一方はグランドラインとするものです。
不平衡ケーブルの代表である同軸ケーブルは、信号を送る中心の導体の回りをシールド性の高い導体で覆った構造のもので、長距離での高周波通信(〜20GHz)目的に開発されました。
両者は、歴史的に見ると、同軸ケーブルが高い周波数の微弱な信号を長い距離に渡って送信するのに(内部と外部の電磁ノイズ対策用に)使われ、音声信号などの電話回線の長距離伝送には(周波数が比較的低くて信号電圧が高い用途には)平衡ケーブルが使われました。
現在では、双方ともGHz帯域で利用されていますが、長距離転送には同軸ケーブルを使うことが多いようです。
同軸ケーブルは高価なので、短い距離での周波数の高いデータ転送には平衡ケーブルが使われます。
イーサネットケーブルにおいても、初期の同軸ケーブルの時代からツイストペアの平衡ケーブルになったのは、同軸ケーブルによる設備費が高くついたからだと言われています。
イーサネットは、ハブやルータが安価に供給できるようになったので、短いケーブルを使っても中継できるようになり、安価なツイストペアによる平衡ケーブルが主流となりました。

 

   
 
▲ 同軸ケーブル
一般的な同軸ケーブルは、右写真に示すような極細の導線を網状に編んだ編組線( = へんそせん)を外部導体として、中心に銅線(内部導体)を配置し、その間を誘導体(ポリエチレンが一般的)が取り巻く形となっています。
これは、BNCケーブルによく見られるタイプです。
ケーブルが同心(同軸)状に作られているので、同軸ケーブルと呼ばれています。
外部導体に高価な編組線が使われているのは、ケーブルの可撓性(かとうせい = 曲がりやすい性質)を良くして、取り回しが楽なように配慮されているためです。
反面、編状のシールド線は周波数伝達があまりよくありません。
本来ならば、銅管などのようなパイプを外部導体としたいところです。
同軸ケーブルの特徴は、高周波信号を長い距離に渡って送受信する目的に開発されたため、周波数伝達が良くて電磁ノイズを外部に漏らさず、また、外部から進入する電磁ノイズにも強いことがあげられます。
外部導体がBNCコネクタの外側メタルと接触しているため、中心の内部導体が信号ラインで、回りの外部導体がグランドラインになっていることがわかります。
信号は片側だけに乗るので、信号的にバランスの取れていない不平衡ケーブルとなります。
  
写真提供: Miikka Raninen氏
Hardlineと呼ばれる同軸ケーブル。 外部導体の口径は、φ46.5mm。 内部導体口径は、φ17.27mm。 曲げは、最小1m。重さは1m当たり1.6kg。
放送局用、マイクロウェーブ回線のkWクラスの高出力用途に使われている。
【同軸ケーブルの歴史】
同軸ケーブルを使った電気信号伝送方式の考え方は、電信・電話事業やテレビ伝送とともに発展してきました。
電信事業が鉄道敷設の発展とともに1830年代から始まった時は、芯線(信号線)は裸線で、これを碍子で電信柱に固定していました。
絶縁は空気でした。グランドは、地中を使っていました。
1850年代、海底ケーブルを敷設するにあたって、芯線を海水から絶縁する必要があり、絶縁技術が進みました。
当時使われていたゴムは長期間海水にさらされると絶縁が破壊してしまうため、これを海底ケーブルに使うことはできませんでした。
1840年当時、イギリス人の軍医モンゴメリー(W. Montgomerie)がマレー半島に赴任しているときに、ガタパーチャ(Gutta-percha)という樹脂を発見し、ファラデーが電気絶縁材料として有効であることを認めました。
ガタパーチャは、熱可塑性を持ったゴムの一種で、常温で凝固するという加工上優れた特性をもっていたので、外科用器具として注目されました。
その樹脂が、海水に対して経年変化が極めて少ないこともわかり、海底ケーブルとして使われるようになりました。
(この樹液は、ドイツのジーメンスも注目していて、ケーブルの被覆用としていち早く事業化にこぎ着け、イギリスが進める海底ケーブルの敷設にも協力し、巨大企業に成長しました。)
ガタパーチャは、第二次世界大戦後、石油化学の進歩によって開発されたポリエチレン(イギリスICI社開発)に置き換わるまで、100年以上もの間、海底ケーブルの絶縁材として重用されました。
当時、イギリスはガタパーチャの輸入を一手に引き受ける利権を得ていて、独自の製法によって絶縁電線の製造を請け負った独占企業のガタパーチャ社(The Gutta Percha Co.)があったそうです。
海底ケーブル通信事業は、イギリスが非常に進んでいました。
信号を送るこうした伝送方式も、モールス信号ぐらいの周波数では裸線を木製の柱に取り付けて使っていても問題はそれほど顕在化しません。
しかし、通信周波数が上がってくると、反射波の影響や長距離伝送における減衰が激しくなります。
周波数の高い信号帯域において良好な伝達ができるケーブルが望まれ、同軸ケーブルの登場となりました。
 
 
【同軸ケーブルの原理】
同軸ケーブルの本質的な構造は中心を走る内部導体とその回りを覆う外部導体からなり、その間を絶縁の高い空気で満たすというものです。
同軸ケーブルの初期のものは外部導体にバネのような螺旋線を使って、その中に内部導体を通して麻糸や絹糸で懸架していました。
右上写真に示した同軸ケーブルは、同軸管(導波管とは違います)とも言うべき様相を呈しています。
この構造を見る限り、同軸ケーブルというのは、内部導体と外部導体の関係(相互の口径と絶縁体)が厳しく取り沙汰されているのがわかります。
絶縁体として、空気が最良であることもこの写真からわかります(実際のケーブルは、材質の酸化を防ぐために乾燥窒素でパージされています。)
また、内部導体が中空になっていることから、高周波は、導体の表面を伝わることが理解できます。
中空にするのは、軽量化を図ることにも一役かっています。
このケーブルの内部導体も、外部導体も、蛇腹構造になっているのは興味あるところです。
この構造は、可撓性(曲げ)と強度を持たせるためだと解釈します。
両者の導体を支えるために、ナイロンでできたスペーサが螺旋状に組み込まれています。
同軸ケーブルの構造を見ていると、単に電流を流すという目的で作られているのではなくて、電磁波成分を伴った信号伝播を十分に考慮していることがはっきりと見て取れます。
こうした構造を採らないと、電磁波を伴った信号成分(高周波信号)はうまく進まないのだと言うことも教えてくれています。
同軸ケーブルは、電磁波を送る伝送路であることを、これらの構造から十分に認識しておくべきでしょう。
 

 

一般の電気信号では、電磁波をあまり意識することはありません。しかし、
信号が1MHzから数GHzになると、信号がうまく伝送できなかったり、ノイズが混入して正しい信号が伝達できなくなります。
シールドを施していないと、導体がアンテナのようになって、内部の信号が外に飛び出したり、外部の電磁ノイズを拾ってしまうのです。
同軸ケーブルは、周波数の高い信号を送る目的で作られました。
周波数の高い電気信号の伝送では、上図のようなモデルを考慮する必要があります。
信号の回りに発生する電場と磁場をうまく処理しないと、空中に飛び出して他の機器に影響を与えます。
同軸ケーブルには、こうした信号に対するシールド効果があり、外部にノイズを出さない働きを持ちます。
同様に、周波数の高い信号に対しても一定の抵抗(インピーダンス)で進む環境を作り、スムーズに高周波データを伝送できるようになっています。
   
 
【インピーダンス】
高い周波数の信号をケーブルで送る場合、ケーブルは以下の抵抗成分を持ちます。  
XL = 2πf * L
XC = 1/(2πf * C)   ・・・(Rec-35)
XL : 誘導性リアクタンス(Ω)
XC : 容量性リアクタンス(Ω)
f: 信号周波数(Hz)
π: 円周率( = 3.14159)
L: ケーブル誘導成分(インダクタンス)
C: ケーブル容量成分(キャパシタンス)
 
右図に示した同軸ケーブルのモデルの「C成分」は、内部導体と外部導体の間に入っているポリエチレンの誘電体の容量成分です。
これは、直流成分の場合、f= 0 なので Xc = ∞となり、問題となりません。
また、内部導体の「L成分」も直流ではf = 0 となるので、抵抗成分(XL )も0となります。
しかし、周波数成分を持つ信号が流れますと、双方はインピーダンス成分を持つようになり、周波数が大きくなるとL成分による抵抗は大きくなり、C成分による抵抗は小さくなります。
両者の比は、1MHz以上の周波数の場合、ケーブルの長さに依存せずに一定となります。
このことから、高周波成分のインピーダンスは、  
Zo = √(L / C)   ・・・(Rec-36)
Zo: 特性インピーダンス(Ω)
L: ケーブル誘導成分(インダクタンス)
C: ケーブル容量成分(キャパシタンス)
で表され、これが50Ωや75Ωで言い表される同軸ケーブルの特性インピーダンスとなります。
「L」も「C」も、直流成分では意味をなさないものですから、交流成分に対して成立するインピーダンスであることがこの式からわかります。
同軸ケーブルは、イギリスのICIという化学会社が絶縁体素材であるポリエチレンを発明(1933年)するまでは、空気を介した同軸ケーブルを使っていて、その特性が75Ωでした。
それを、電気的特性の良いポリエチレンに置き換えて、同じ径で同軸ケーブルを作った所、50Ωの特性になったそうです。
現在では、絶縁材にポリエチレンを使うのが一般的で、75Ωもしくは50Ωの特性が出るように内部導体と外部導体の口径比を正しく取り決めています。
ポリエチレンも発泡性のものを使って空気の占める割合を大きくして、同じ電気特性で口径を小さくしたものもあります。
 
【3C-2Vと呼ばれる同軸ケーブル】
実際の同軸ケーブルでは、伝送する距離と周波数帯域によって、推奨できるケーブルのタイプが決められています。
我々がアナログ映像信号を送る目的に使う20m長程度のケーブルには、3C-2Vと呼ばれる規格のものを使っています。
3C-2Vというケーブルは、以下の規格で作られています。
 
 
3C-2V の意味
3: 絶縁部(ポリエチレン)径が3mm。他に、4mm径の「4」、5mm径の「5」や、「7」、「10」などがある。
C: インピーダンスが75Ω。他に50Ωの「D」などがある。
2: 絶縁方式としてポリエチレンを使用
V: 外部導体が1重の編組でPVC被覆
 
同軸ケーブルは、同じ75Ωのインピーダンス特性でも太いほど周波数特性が良いので、長距離伝送や高い周波数を送るときには、5C-2Vや10C-2Vなどの太い同軸ケーブルを使います。
太いケーブルは、性能がよいものの、高価であったり取り回しが大変なので、目的に応じて使い分け、通常の室内でビデオ機器などを接続するには3C-2Vを使います。 3C-2Vと10C-2Vの特性は、以下のようになっています。
 
項  目
3C-2V
10C-2V
1MHzの減衰量基準値:
12 dB/km
4.8 dB/km
10MHzの減衰量基準値:
40 dB/km
16 dB/km
30MHzの減衰量基準値:
70 dB/km
29 dB/km
200MHzの減衰量基準値:
195 dB/km
80 dB/km
4,000MHzの減衰量基準値:
-
540 dB/km
試験電圧:
1 kV eff.
3 kV eff.
内部導体径:
φ0.5 mm
φ1.5 mm
PE(ポリエチレン)絶縁外径:
φ3.1mm
φ9.4 mm
被覆材質:
PVC(塩化ビニール)
t0.9 mm
PVC(塩化ビニール)
t1.4 mm
仕上がり外径:
φ5.6 mm
φ13.2 mm
重量:
50 g/m
230 g/m
特性インピーダンス:
75Ω
75Ω

同軸ケーブル(3C-2Vと10C-2V)の特性表 

上の値は、3C-2Vケーブルでは、1kmの距離を信号伝送するのに1MHzの周波数では1/4程度に減衰し、10MHzでは1/100に、30MHzでは1/3,160まで減衰することを示しています。
同軸ケーブルといえども、1kmまでケーブルを延ばすと周波数の高い信号ほど減衰が激しくなることをこの表は示しています。
 
【1ナノ秒で信号が20cm進む同軸ケーブル】
電気信号は、導線中をどのくらいの速度で進むのでしょうか。
電子の動きそのものは非常に遅く、カタツムリ程度の移動と言われています。
しかし電子は、電磁波を仲立ちとして電気信号を光速で伝達させるので、導線中は光速( = 電磁波の伝わる速度)で信号が伝わり、先々にある電子が電磁波に反応します。
導線中では電子がいっぱい詰まっていますから、玉突きのように電子が互いにエネルギーを伝達しあって電気が流れる( = エネルギーが伝わる)ようになります。
従って、結論を言えば、導線中に流れる電気エネルギーの速度は光速に近く、電子そのものの移動は遅いということが言えます。
水の流れは遅いけれど、波は速く伝播するというイメージで良いかと思います。
同軸ケーブルでの電気の流れは、一般の導線とは趣が異なります。
高周波信号は、一般の導線ではノイズを外にまき散らしたり減衰が激しいので、同軸ケーブルではこれらの対策を優先しています。
同軸ケーブルは、従って、導線中の電磁波の伝播を優先的に考えなければならないケーブルとなります。
同軸ケーブルを伝わる電気信号は、顕著な電磁波を伴うため、信号伝達は基本的に光速となり、構造上、内部導体の表皮と外部導体の表皮を電磁波が伝播します。
この場合、両導体に介在する誘電体の種類によって(誘電率が真空と異なるので)、電磁波の伝播する速度が遅くなります。
一般の同軸ケーブルは、誘電体にポリエチレンが使われているので、その材質から「波長短縮率」が求まります。
ポリエチレンの場合、67%となるので、同軸ケーブル内では、光速の67%で信号が進みます。
光速は、1秒間に30万km(1ナノ秒で30cm)進みますので、この光速の67%、すなわち1ナノ秒で20cmの距離を進むことになります。
この速度は、同軸ケーブル内での話であり、BNCコネクタ部のカプリングは、この限りではありません。
高級なBNCコネクタは、2GHz帯域までこの波長短縮率を満足するように十分な設計と製造が施されていますが、安価なBNCコネクタでは低い帯域しか性能を満足しないので、カプリング部で位相が変わり速度が落ちます。
いずれにせよ、同軸ケーブルを使う場合は、ケーブルの長さに応じて信号の遅延を割り出すことができます。
遅延装置が高かった時代、同軸ケーブルを使った遅延線というものを利用していました。
この原理から、BNCケーブルでは、1m長で5ナノ秒、10m長で50ナノ秒、100m長で0.5マイクロ秒の信号遅延を持つことがわかります。
 
 
▲ 平衡ケーブル(balanced cable) (2009.04.01追記)
ビデオ信号ケーブルに使われている同軸ケーブルが不平衡ケーブルの代表的なものであるなら、イーサネットケーブルLVDSRS-422(EIA-422)は、平衡ケーブルの代表的なものです。
平衡ケーブルは、1対の信号線に相補する(位相の反転した)信号( = 差動信号)を乗せています。
例えば、一方の信号線が正極の信号であればもう一方は負極の信号になっています。
この方式は、外部からノイズが入ってもノイズを簡単にキャンセルできるので、信号成分が安定します。
この手法は、電話機の送受信の手法として発達しました。
近年のデータ通信の方式を見てみますと、高周波での長距離通信では同軸ケーブルが使われて、短い距離と低周波信号では平衡ケーブルが使われる傾向にあります。
 
■ フィーダー線(ladder line)(2022.05.10追記)
平衡ケーブルは、初期のテレビアンテナの給電線(フィーダー線)として300Ωのものが使われていましたが、同軸ケーブルの方が性能が安定しているので、最近ではフィーダー線に代わり同軸ケーブルが主流になっています。
当時、アンテナ線やテレビ信号線に300Ωのフィーダ線(給電線)が使われたのは、安価であったからです。
しかし、300Ωフィーダー線は、使っている間に特性がどんどん崩れたり、50m程度以上引き回す場合には、設置に細心の注意を払わないと特性がでないという問題がありました。
十分な注意を払った設定では、その特性は同軸ケーブルよりも優れています。
しかし、現実には、多くの場合、そうした結果にならない(金属を近づけると特性が崩れる、湿気が結露して水分がつくと特性が崩れる、オートバイからの電磁ノイズを拾いやすい)ことが多いので、近年では同軸ケーブルによる敷設が主流になっています。
フィーダ線は、アンテナから直接接続することできますが、同軸ケーブルは外側がグランドになっているためアンテナから直接同軸ケーブルに接続することはできません。
この場合は、平衡 / 不平衡変換器(balun = バラン、balance / unbalanceの略、左写真)を用いて、不平衡ケーブル(同軸ケーブル)に適応できるようにして信号を送っています。
 
 
■ ツイストペア線(Twisted pair line) (2022.05.10追記)
RS-422や、イーサネット、LVDSなどの平衡ケーブルは、ノイズ対策の一つとして、ペアになったリード線を撚(よ)っています。
撚(よ)ることによって、自ら発する電磁ノイズをキャンセルすることができ、また、外部から入るノイズもキャンセルすることができます(下図参照)。
ツイストペア線とは反対に、アンテナのフィーダー線は撚り線になっていません。
撚ってしまうと、アンテナから受け取った電磁波信号がキャンセルされて伝達速度が理想状態から崩れてしまい、減衰も激しくなるからです。
撚り線は、従って、電磁波を伴う微弱信号には都合が良くないことがわかります。
ツイストペア線は、電流をしっかりと流す送受信に威力を発揮します。
平衡ケーブルの欠点は、2本の線の双方に信号成分が乗るので、同軸ケーブルのようにグランド線を共通にすることができないことです。
従って、一対の信号ラインは信号線の数だけ必要になります。
また、周波数が高くなると、対になっている信号情報が崩れる可能性があり、「平衡度」が悪くなります。
このことから、長距離伝送や周波数が高い平衡ケーブルでは、平衡度をうるさく規定しています。
 

 

ツイストペア(撚り線)による電磁ノイズ除去効果
   
 
■ シールド処理されたツイストペアケーブル (2009.04.29記)
ツイストペアケーブルは、基本的にノイズに強い性質を持っていますが、それでも外部からの電磁ノイズが心配される場合に、ケーブル全体をシールド処理したツイストペアケーブルを使うことがあります。
シールド処理を施したものは、していないものに比べて若干の信号の減衰があります。
そして高価です。
従って、工場内の電磁ノイズの多い場所での利用に有効です。
しかし、そうでない所では、あえてシールド処理のケーブルを使わない方が安価であり性能も上がると考えます。
シールド処理は、ケーブルを含め、コネクタや接続装置全体をシールド処理しなければならないので、設置が大がかりになります。
イーサネットケーブルでは、シールド処理をしているケーブル(STP)とシールド処理をしていないケーブル(UTP)の2種類ありますが、日本では、扱い易さの観点から、UTPが圧倒的に多く使われています(2種類のツィストペアケーブル参照)。
シールド処理は、装置全体を考えないと逆効果になることを知っておくべきでしょう。
   
 
■ 光ケーブル(Optical Fiber Cable) (2009.04.16記)
データ通信で1980年代から主流になってきたものに、光ファイバーがあります。
光は電子と相性が良いと同時に相互に干渉しないので、光通信は電磁ノイズに左右されず、しかも光速で通信できるという特徴を持っています。
1960年後半、レーザの発明と光ファイバーの発想によって、光によるデータ通信が着実に発展してきました。
2009年時点においては、長距離データ転送(海底ケーブル、主電話回線網)はすべて光ファイバーケーブルに置き換わっています。
我々の身の回りでの光ケーブルは、インターネット回線に使うLANや、オーディオの出力にもこれら光ファイバーが使われています。
光ファイバーの原理については、「光と光の記録 - レンズ編 ■光ファイバー」を参照下さい。
 
レーザファイバーでは、ファイバーのコア部に、エルビウム(Er、Erbium)やネオジム(Nd、Neodymium)、イッテルビウム(Yb、Ytterbium)などの3準位の元素がドーピングされていて、900nmの励起光によって反転分布が作られます。
ここに、信号光(1.55um)が入ると次々と増幅が行われて、強い信号光を取り出すことができます。
 
 
■ ファイバーレーザ(Fiber Optic Laser)
ファイバーレーザは、ファイバー自体に自己増幅機能をもったレーザで、長距離通信用として発明されました。
実用的なファイバーレーザは、1985年、英国サウサンプトン大学(Southampton University)のSimon Pooleらによって、低損失の単一希土類添加光ファイバーが開発されてから、ファイバーレーザの開発が本格的に始まりました。
1987年、同大学の Robert Mearsらによって希土類添加(Erbium-doped)光ファイバーのレーザ作用を利用した1.55um帯光増幅器が開発されました。
この光ファイバーは、従来の光ファイバーと異なりファイバー内で光増幅が行えるため、長距離転送に必要な光を増幅する中継ボックスを少なくするというメリットがありました。
このファイバーは、1995年、トランスアトランティック電話会社(Trans-Atlantic Telephone, TAT)の海底ケーブルに使われ、米国と英国、フランスを結びました。
このケーブルの長さは総延長が14,000kmに及び、ファイバーの中継を45kmとすることができ、5Gb/sの伝送速度を持っていました。
ファイバーレーザは、小型で低消費電力、そしてビームクォリティが高いので、通信用目的の他に高温加工分野で注目され、レーザ溶接機の熱源として使われています。
詳細は、「光と光の記録 - レーザ編 ■ファイバーレーザ」を参照下さい。      

       
 
■ データインタフェース 
 
この項目では、データ通信の規格について触れます。
データ通信を規格化することにより、通信機器の互換性が高まり、たくさんの通信機器と簡単に接続できるようになります。
データインタフェースは、高速、大容量化の歴史でもあります。 右図に代表的なデータ通信手法と転送速度の歴史的推移を示します。
パソコン(IBM-PC)ができたのが1981年ですから下のグラフを見てみますと、パソコンができる以前からRS-232CやGP-IB、イーサネットがあったことがわかります。
 
 
【パラレル通信、シリアル通信】
通信方式は、大きく分けて二つあり、一つはたくさんのデータ線を平行に配置して一度にたくさん送るパラレル方式と、もう一つは、1本のデータ線でシリーズに送るシリアル方式です。
パラレル方式は、高速に対応できる反面、ケーブル長に限界があります。
また、シリアル方式は、ケーブル長が長くできる反面、転送速度が上がらないという傾向がありました。
しかし、近年では、イーサネットなどのシリアル転送でもSCSIのパラレル転送並の速度を持つものがあり、一概に傾向を論ずることができなくなりました。
パラレル転送は、8人9脚のような転送なので、足並みが揃わないと転んでしまう(データ欠損が起きる)問題があります。
そうであるならば、走りやすい走路を確保して(ツイストペア線による平衡信号にして)高速でデータを送った方が、結果的には大量のデータを送ることができるのです。
以下、データインタフェースの歴史的な流れを見てみることにします
 
 
 
 
【RS232C】(シリアル通信)(2022.05.10)(2023.11.01追記)
パソコン(2010年以前のPC)に備わっている通信ポート群をよく見ると、COM(もしくは、|O|O|)と書かれた9ピン(もしくは15ピン)の端子がついているのがわかります。
COMというのは、Communication(通信)の略で、通信ポートの意味です。
このCOMポートが、実はRS232Cという通信ポートなのです。
RS232Cは、電話回線を使った通信(モデム通信)を前提にして、1969年に作られた(50年も前です!)インタフェース規格です。
「C」バージョンの原型であるRS232は、1962年にできています。
1962年当時は、IBMの大型コンピュータがトランジスタ素子を採用してやっと軌道に乗った時代でした。
また、この時期は、デジタル素子であるTTL(Transistor-Transistor Logic)が米国テキサスインスツルメンツ社から市販化されはじめた時期です。
1980年代にパソコンができてから、イーサネットが標準装備されるまでの15年間は、このRS232Cがパソコン通信の代表的な通信手段でした。
音響カプラーと呼ばれる装置(電話の受話器にお椀のようなものを取り付けて、FAXを送る際のコール/アンサー信号のような音源でデジタル通信を行った装置)も、このRS232C規格を採用していました。
この通信手段は、名前からもわかるように、米国EIA(Electronic Industries Association: 米国電子工業会)が制定したもので、データ端末装置(DTE: Data Terminal Equipment)と回線終端装置(DCE: Data Circuit terminating Equipment)の両者について機械的・電気的な仕様を定めたものです。
信号は、±10V(ドライバやレシーバ回路電源は±12V)程度で、規格上の伝送速度は、20 kb/s以下となっていました。
通信速度を示す9600ボー(baud、bit per second = bps、ビット/秒)が有名な数値と単位です。
通信設定の際にちょくちょく目にした9600という数値は、RS232の規格上の半分の速度設定だったことがわかります。
データは不平衡信号であるためグランド線とデータ線で構成されていて、現在の主流である差動信号ではありません。
差動信号は、その後のRS422で採用されました。
RS232Cは、従ってノイズに対して弱く、データ転送の負荷容量CLが2500pF以下だったため、ケーブル長さは十数メートルに制限されていました。
それ以上に長くすると、通信エラーが起きて性能を満足できなくなりました。
ただし、コンピュータ同士のインタフェースとして使用する場合には、一般公衆回線よりも雑音が少ないので、もっと高速、あるいはもっと長いケーブルを使用しているケースもありました。
現在(2009年)でも、COMポートはパソコンに標準で装備されています。
2023年時点でもUSB・RS232C変換ケーブルを買い求めることができ、この規格が深く浸透して使われていることがわかります。(2023.11.01追記)
この規格は、簡単なリモート制御を行うにはシンプルでとても安定しているので、ちょっとした機器の接続に今でも使われています。
しかし、画像を送ったりインターネットを見る目的には速度が遅すぎるため適合せず使われていません。
2022年にあっては、上図のRS232Cポートが装備されたPCはありません。簡単なコマンド制御にはUSBを使って行っています。(2022.05.10追記)
   
 
【RS-422】(シリアル通信)
RS-422(EIA-422、TIA-422)は、RS232Cの改良版で、通信速度と通信距離を大幅に改善させたものです。
RS232Cと互換性が強いので、長距離転送をRS422で行って、機器側でRS232Cに変換して使うことがありました。
RS-422の大きな特徴は、信号に差動信号(Differential Signaling)を採用したことです。
これにより、耐ノイズ性能が向上し、長距離高速データ通信できるようになりました。
アップル社のマッキントッシュでは、初期のモデル(Macintosh 128k、1984年)からmini-DIN8コネクタによるRS422規格を採用し、これにマウスやキーボード、専用のプリンタを接続していました。
しかし、これも1998年に発売されたiMacでは、USBを採用したために、mini-Din8によるRS422ポートはなくなりました。
RS422は、伝送距離が400ft(1.2km)と長く、10Mbit/sのデータを送ることができました。
RS-232Cが50ft(15m)で20kbit/sなので、距離にして80倍、伝送速度において500倍の性能を持っていたことになります。
  
項  目
RS232
RS422
RS423
RS485
操作モード
シングルエンド
差動
シングルエンド
差動
ドライバ: レシーバの接続数
1:1
1:10
32:32
最大ケーブル長
50 ft
(15.2 m)
4,000 ft
(1,220 m)
最大データ転送
20k bps
100k〜10M bps
100k bps
100k〜10M bps
最大データ出力電圧
+/- 25V
-0.25V〜+6.0V
+/- 6.0V
-7V〜+12V
出力インピーダンス
3k〜7k Ω
100 Ω
450 Ω以下
54 Ω
入力インピーダンス
3k〜7k Ω
最小 4k Ω
最小 4k Ω
12k Ω以下

 

   
 
【セントロニクス(Centronics)】(パラレル通信)
この規格は、1970年、米国Centronics Data Computer社が自社製品のプリンタに装備したインタフェースです。
大型のD-subコネクタを使ったプリンタポートです。
開発当時、同社がワイア・ドット・プリンタで大きなシェアを占めていたため、プリンタインタフェースの事実上の標準となりました。
この規格は、後にIEEE1284として標準化されました。パソコンが普及する以前から構築された通信規格です。
最初の規格では、Centronics社でプリンタ用に大量に余っていたアンフェノール社のD-Sub 36ピンのコネクタを使っていましたが、IBM社がIBM-PCにプリンタポートで採用したコネクタは、D-Sub 25ピンでした。
従って、初期のセントロニクスケーブルは、36ピン - 25ピンのケーブルが必要でした。
双方が25ピンのコネクタを使ったケーブルを使用し出したのは、プリンタメーカのHP(ヒューレット・パッカード)社です。
1992年にHP社から発売されたLaser Jet 4 には、25ピンのポートが採用され、これよりセントロニクスケーブルはより使い勝手の良いものになりました。
この規格は、2年後の1994年にIEEEで採択されてIEEE1284規格となりました。
プリンタポートとして大きな普及を見て、2004年までのパソコンには大抵装備されていました。
しかし、それ以降のパソコンには装備されなくなりました。
セントロニクス装備のプリンタがなくなり、プリンタ接続は、USB2.0やイーサネット、あるいは無線のBluetoothに切り替わって来たためこのポートを装備する意味がなくなったのです。
このプリンタポートは、プリンタ機器の接続という本来の目的の他に、ソフトウェアのプロテクトキー(ドングルキー)を挿入するポートとして使われて来ました。
しかし、それもUSBキーにとって替わられています。 セントロニクスは、非同期式の8ビット・パラレル転送方式をとっていました。
8本の信号線を使って各線1ビット、合計8ビットの信号を500k バイト/秒程度でデータ転送を行っていました。
信号は不平衡信号でした。従ってグランドは共通にすることができます。パラレルなのでシリアルのRS232Cより25倍も高速に転送できました。
しかし、パラレル転送は、クロストーク(混信)の問題があり、ケーブル長をあまり長くとることができませんでした。
これは、パラレル転送の宿命とも言えるべきものです。
25ピンのセントロニクスの主な信号とピンアサイン及び機能を紹介します。
  
* ピン1:STROBE:パソコンがデータを送信したことをプリンタに伝える同期信号。
* ピン2-9:DATA1 - DATA8:8ビットのデータ信号。
---------------------------------
* ピン10:ACKNLG:プリンタがデータを受信したことをホストに伝える同期信号。
* ピン11:BUSY:プリンタが次のデータを受信できないことを示す信号。
* ピン12:PE:プリンタ用紙の終わりを知らせる信号。
* ピン13:SEL:プリンタの選択信号。
* ピン14:LF:プリンタの行換え信号。
* ピン15:ERROR:プリンタのエラー信号。
---------------------------------
* ピン16:PRIME:コンピュータの初期化信号。
* ピン17:SEL:コンピュータの選択信号。
---------------------------------
* ピン18 - 25:GND:8本のグランド信号線。  
 
 
【GP-IB(General Purpose Interface Bus】(パラレル通信) (2006.09.03)(2009.08.18追記)
計測器メーカで有名な米国ヒューレット・パッカード(HP)社(現Agilent Technologies社、HP社より分離独立)が、1960年代に開発し規格化したデータ転送規格です。
当時のHP社は、温度センサーやプロッタなど優れた計測装置を設計、製造していたメーカで、こうした計測装置を有機的に結びつける必要から機能的に優れた使い勝手の良いデータ転送方式を編み出しました。
HP社では、これをHP-IB(Hewlett-Packard Interface Bus)と呼んでいましたが、他のメーカがこのバスを使用するようになって、General Purpose Interface Bus(GP-IB)として知られるようになりました。
このバスは、1978年にIEEEが取り上げて、IEEE-488として規格化されました。
 
■ パラレル信号ライン
当時、GP-IBの斬新だった所は、8本の信号線にビットをあてて8ビットとし、他に8本の制御信号線を設けてデータの入出力をコントロールしたことです。
GP-IBでは16本の信号線と8本のグランド線の合計24本(24ピン)で構成されています。
データ線は8ビットのため8本(DIO1〜DIO8)あり、グランド線は共通で1本が配置されていました。
制御線は、3本のハンドシェークバス(DAV、NRFD、NDAC)と5本の管理バス(ATN、REN、IFC、SRQ、EOI)の合計8本からなっていて、RENとEOIを除いた6本はすべて個々にグランド線があてがわれてペアとなっていました。
RENとEOIはデータ線と共通のグランド線となっていました。
24ピンのうちの1つはシールド線に結線されていました。信号は不平衡信号です。
 
■ アドレス指定
GP-IBを接続する装置には、アドレスが機械的に割り当てられていて(DIPスイッチと呼ばれる小さいON-OFFスイッチで装置番号を設定した)、このアドレス設定に従って設定した相手にデータを確実に送ることができるようにしていました。
従って、GP-IBでデータ送信する機器(トーカ)には、データ列の前にどの機器に送るかを宣言する方式になっていました。
リスナGP-IBでは、ケーブルを数珠つなぎ(デイジーチェイン)でも並列接続でも接続可能で、中継ボックス(Hubなど)を介さずに接続できました。
ただ、ケーブル長さは、すべての合計が20m以内でなければならず、接続する機器も合計で15ヶ以内という決まりがありました。(機械番号を認識するDIPスイッチが4つだったので、16個の装置までしか認識できませんでした。)
ケーブル自体は、あまり長くなく1〜2mが多かったような記憶があります。
そして太いケーブルでした。
 
■ 転送速度
この規格でどのくらいの速度でデータが送れたかと言うと、1MHzのクロックで8ビットのパラレル信号が送れるので、理論的には最大1Mバイト/秒となります。
この通信速度は、温度や圧力などのデータを送るのにはそれほど不便は感じないものの、画像転送に使うとなると非力になるのは否めません。
例えば、512x512画素8ビットの白黒画像を送るとすると、1/4秒での送信が計算上可能です。
実際の所、1990年代始めに行った我々の実験では、GP-IBの転送手順と同期の関係から262 kBの画像を送るのに30秒〜1分程度かかっていました(8.74〜4.37 kB/秒)。
理論よりも100倍から200倍も時間がかかっています。
当時は、GP-IB以外に信頼できる高速通信可能な手段がなかったので、こうした通信手段で画像を送っていました。
しかし、これではあまりにも時間がかかるので、1990年代中頃には、SCSIによる画像通信が一般的になりました。
これも、2000年を境にして次第に使われなくなりました。

  

GP-IBケーブル。長さは70cm程度と短いものが多かった。 ケーブルは8本のパラレルデータ線なので太い。 コネクタは、重ねて接続できるようにメスとオスが双方にもうけられていた。 下の図は接続例。重ね接続でも芋づる接続でも双方の接続方法が可能であった。 接続機器にはすべてアドレス(4ビット)が割り振られ、アドレスに沿ってデータの送受信が行われた

 

【歴史的なデータ転送規格】
データ転送の規格は、コンピュータの発展とともに進化してきました。
多くのものは、メーカが独自に開発してそれが時流の勢いに乗って標準化されて行き、それがより進化した通信規格が開発されると前のものが淘汰されるという進化の過程を経ています。
こうした流れは、お互いをけん制しあいながらも影響を及ぼしあってきました。
以下その規格を列挙します。 
 
 
・DMA(Direct Memory Access)転送(パラレル通信)
DMAは、データの転送をCPUを介さずに直接転送する方式です。
CPUのクロックが数MHzと低かった時代、CPUのクロックに乗せてRAMメモリのデータをハードディスクに書き込んでいたのでは時間がかかりすぎるので、データ転送は専用のプロセッサに任せて行う方法が取られました。
これがDMA転送です。
この手法は、現在も形を変えてパソコン内部のデータ転送に生きています。
 
 
・VME(Versa Module Eurocard)バス転送(パラレル通信)
VMEバスは、米国モトローラ社が1981年に自社のCPU68000用のデータ転送用に開発したバスで、Versa Module Eurocardの略から来ています。
回路基板にユーロカード規格を採用したので広く使われるようになり、米国の規格IEEE1014-1987として登録されました。
初期のものは16ビットバスでユーロカードDINコネクタが採用されました。
以後64ビット対応になり、カードも6Uサイズになりました。データ通信速度は40 MB/sでした。
  
 
・SCSI(Small Computer System Interface)転送(パラレル通信) (2009.08.18追記)
SCSI(すかじー)は、1979年に米国Shugart社(Seagate Technology社の前身でフロッピーディスクの製造会社)によって周辺機器(特にHDD)接続用に開発したSASI(Shugart Associates System Interface)をベースとしたものです。
これに機能の拡張や追加を行い、1986年米国規格協会(ANSI)がX3.131-1986として標準化パラレルインタフェースとしました。
SCSIコネクタ。
この他に数種類のコネクタがあり、接続に注意が必要であった。
SCSIは、Shugart社でこの規格の開発に従事したLarry Boucherが1986年にAdaptec社を創設して製品の開発につとめ、SCSIの性能向上に努めました。
SCSIは、イーサネットやUSBが普及するまでの間、高速転送の主流でした。
2000年までの多くのパソコンは、高速大容量データ転送用としてSCSIインタフェースボードをPCIボードスロットに差し込んで、これにハードディスクドライブやCDドライブ、プリンタなどを接続していました。
当時としてはもっとも高速にデータ通信ができるパソコン周辺機器の通信規格でした。
現在は(2003年〜)、RAIDなどのミッションクリティカルな高速通信目的以外ほとんど使われていません。
その理由は、SCSIより使い勝手が良くて速度の速い通信方式(イーサネット、USB2.0、IEEE1394)が出現したためです。
SCSIは、周辺機器を7台まで芋づる式(デイジーチェーン)に接続可能なインタフェースでした。
接続の最後には必ず終端処理(ターミネータ)を施しておく必要がありました。
使用するコネクタのピンは50本で、データ用は9本(うち1本はパリティ)、制御用に9本の信号線を使っています。
SCSIバスの電気的条件として、最大ケーブル長6mの非平衡型と、最大ケーブル長25mの平衡型(差動型)が規定されています。
非平衡型は負論理(LOWでアクティブ)の信号線とグランド線で構成され、その電位差でHIGHとLOWを決めています。
一般には、非平衡型が用いられていて差動型との共存は不可能です。 従って、SCSIケーブルは6m長が標準でした。SCSIの進化過程を以下に述べます。  
 
1. SCSI-1 : 8ビットパラレル、5Mバイト/秒、1986年
2. Fast SCSI : 8ビットパラレル、10Mバイト/秒、1994年
3. Fast Wide SCSI : 16ビットパラレル、20Mバイト/秒、1996年
4. Ultra2 SCSI : 8ビットパラレル、40Mバイト/秒、1997年
5. Ultra3 SCSI : 16ビットパラレル、160Mバイト/秒、1999年
6. Ultra-640 SCSI : 16ビットパラレル、640Mバイト/秒、2003年
 
SCSIはその後、安価で高性能なIDE SATAの台頭と、使い勝手が良く高性能なUSBの出現で次第に存在価値が絞られてきています。
 
 
 
・IDE(Integrated Drive Electronics)転送 / ATA規格(パラレル通信)  (2009.08.18追記)
IDEは、SCSI に置き換わるようにして発展してきたもので、ハードディスク(HDD)の高速データ転送を目的にしていました。
SCSIとIDEは、ライバル関係にあったのです。
しかし当初は、SCSIの方が高速・高性能でした。
IDEは安価であることがウリでした。
IDEの開発は1986年ですから、パソコンが台頭し始めた初期からありました。
IDEは、SCSIと比べてデータ転送速度が遅い欠点がありましたが、IDE規格のHDDが安かったため急速に普及していきました。
SCSIが外部装置との接続ができるようにケーブルやPCIカードを整えたのとは対照的に、IDEはIBM PCATバスにハードディスクを直結するためのインタフェースに終始しています。
したがって、IDEケーブルは右写真に見られるように、リボン(フラット)ケーブルになっています。
価格を抑えた設計に終始しているのがわかります。
IDEが大きな普及を見たことにより技術開発も進んで、2000年を越えたあたりから速度的にもSCSIとほとんど遜色がなくなり、パソコン内部のインタフェースバスとして揺るぎない位置を占めるようになりました。
2009年にあっても、HDD、DVDを接続する主要のインタフェースバスとして使われています。
SCSIがハードディスクを最初に開発したシュガート(Shugart)社から作られたのに対し、IDEはライバルのウェスタンデジタル(Western Digital)社とクローンパソコンで台頭した米国Compaq Computer社(現在はHP社に吸収)の共同で開発されました。
IDEは、ANSI(American National Standards Institute、アメリカ規格協会)によって1988年に規格化されたために、その規格名からATA(Advanced Technology Attachment)と呼ぶこともあります。
IDEのコネクタは40本の信号線から成り、接地線を除く34本の信号線でデータの転送や制御を行っています。
データ転送用には16本の信号線(16ビット)が使われています。
グランドラインは16本すべてにあてがわれていないので信号は不平衡信号になります。
IDEに使われているケーブルは平べったいリボン状のもので、ケーブル長さは最大18インチ(45.7cm)と規定されています。
これはケーブルとしてはすごく短いもので、コンピュータ内部でしか使えない長さです。
ケーブルの形状からわかるようにIDEではツイストペア信号になっていないことがわかります。
ケーブル自体もシールドされていません。
ATA規格では、制定当初は3.3MB/秒の転送速度であったものが、2005年のATA-7規格では133.3MB/秒の転送速度を持つに至っています。
 
 
【SATA 及び eSATA】 (シリアル通信)(2010.01.25)(2010.03.17追記)
SATA(さーたー)は、シリアルATA(Serial Advanced Technology Attachment)と呼ばれるもので、上で述べたATA通信規格のシリアル転送版です。
eSATA(いーさーたー)は、SATAの拡張版でextended SATAの略です。
SATAがコンピュータマザーボード内部で使用されるのに対し、eSATAは、IEEE1394やUSB2.0の接続と同じように外部機器との通信接続に使われます。
これは、主にハードディスクやDVDなどの光学装置接続用として使われています。
2009年で発売されているPC内部のHDD接続には、ほとんどこのSATA規格のものが使われています。
シリアルATAは、上で述べたパラレルATA( = IDE)の速度が限界になったため、転送速度と使い勝手を向上させるために2002年にワーキンググループを発足して規格化がなされました。
主な仕様を以下に示します。
 
■ シリアル転送
新しい規格は、従来のパラレル転送からシリアル転送に変わりました。
信号ピンは、差動信号の2ペアの4信号(A+、A-、B+、B- = 送信用と受信用)、それに加えグランドピン3線の合計7ピンの配線となりました。
IDEは、40ピンのリボンケーブルを使っていました。
下図の右に示すようにケーブルの巾が非常に小さくなり、ケーブル長さも長くなったため配線がすっきりするようになりました。
 
■ 転送速度
転送速度は、当初、150MB/sからスタートしました(SATA150と呼ばれた)。
2004年のシリアルATA2.0では、倍の300MB/sとなりました(SATA300と呼ばれた)。
2009年05月のシリアルATA3.0では、そのまた倍の600MB/sとなりました(SATA600)。
このスピードは、PCIボードの性能を抜き去るものです。  
 
■ 差動信号(LDVS)
シリアルATAに使われている信号は、LDVSとよばれる差動信号を使っています。
この信号は、高速通信では一般的になっているものです。
 
■ ケーブル長さ
シリアルATAは、従来のATAよりも2倍以上も長い1mまでのケーブルを使うことができます。
 
■ ホットスワップ対応
電源を入れたままケーブルを抜き差ししても機器が認識できる機能を装備しました。
 
■ eSATA
SATAがPC内部のマザーボードと機器の接続であるのに対し、外部機器との接続を規格化したのがeSATAです。
ケーブルの長さは2mまで可能で、ホットスワップが可能でした。
コネクタは、SATAと区別するためにこれとは違ったものになっています。(上の右下写真参照。右側がeSATAコネクタ)
この規格は、USB2.0の5倍の速度を持っています。
高速大容量のハードディスクにはこの規格の端子が装備されています。   
 
 
【イーサネット = Ethernet】(シリアル通信) (2006.07.13)(2009.09.11)(2018.11.22 追記)
 
インターネットやローカルエリアネットワーク(LAN)の普及とともに、よく知られる通信手段となったものにイーサネット(Ethernet)があります。(多くの人たちはイーサネットケーブルと呼ばずに、LANケーブルとして認識されているのには少々驚かされます。イーサネットケーブルという言葉が通じません。)
イーサネットは、コンピュータ同士を有機的に結びつける通信手段として急速に発展しました。
イーサネットによる通信は、RS232Cと同じように一本の信号線で行われていました。
初期のイーサネットは、1本のBNC同軸ケーブルが使われていました。
現在は、モジュラージャックを使った4対(8本)の信号線になっています。
イーサネットポート。ツイストペアケーブルを使ったイーサネットは、4対(8本)の通信線で構成されている。
イーサネットプラグ(8P8Cモジュラージャック)。 これで1Gbpsの送信が可能!
ラッチは、取り外しを頻繁に行うと折れやすい。
イーサネット接続によるデータ通信は、非常にたくさんの通信機器と合流・相乗りができて、開発当時、最大10Mビット/秒の転送速度の通信が行えました(10Base)。
イーサネットの大きな特徴は、長い距離に渡ってたくさんの機器を機能的に結びつけられることでした。
通信速度も1990年代当時としてはとても速いものでした。
10Baseのイーサネットを使って画像通信の実験した1999年当時、640x480画素の画像1枚(BMPフォーマット画像)を20秒程度で転送できました。
 
  640画素 x 480画素 x 8ビット x 3画面 ÷ 20s =  368.64kbps  ・・・(Rec-37)
 
上の計算が示すように、10Mビット/sの通信ラインでは実効値0.4Mビット/sの通信速度をもっていました。
これは、公称データの4%の速度にあたります。
これが、当時最も早く画像データを転送できる通信手段の一つだったことを覚えています。
その後、Ethernetの伝送速度は100Mビット/秒に高速化され、Fast Ethernet = 100BASE-Tに対応した製品が普及しました。
この規格を使えば、従来よりも画像転送時間を1/10に短縮することができました。
2002年頃からは、ギガイーサネットと呼ばれる1000Mビット/秒の通信速度をもつネットワーク通信システムが市場に出回るようになりました。
この規格は、100Baseの規格のさらに10倍の転送速度を持っていました。
この規格で高速度カメラの画像をダウンロードをしたものに、米国Redlake MASD社のHG-100K(2003年〜2008年、現IDT社)がありました。
当時、デジタル画像転送では最も確実な高速転送を行っているものでした。
わたしの家庭のLAN(2004年〜2009年時点)では、デスクトップパソコンとノートパソコンのデータ通信を64Mビット/秒で転送していました(900MBのデータを約110秒で送ることができました)。
デスクトップとノートパソコンが1000BASE-Tなので、そこそこの性能が出ているといえます。
イーサネット通信は、社内LANやインターネットでも使われている非常に安定した信頼性の高い通信手段で、通信距離もHUBを利用すれば距離に関係なくデータを送受信できます。
イーサネットの問題点は、ネットワーク内にたくさんの情報が入り込んできたときに情報の交通渋滞がおきて目的とする通信速度が達成できなくなることです。
これは、イーサネットの成り立ち上、そして送受信の原理から致し方のないものです。
使用者は、そうした原理をよく知ってデータの通信を上手に行わなくてはなりません。
 
▲ イーサネット開発の歴史
イーサネットの開発は、1973年に始まります。 随分と早い時期に着想されて開発されました。
パソコン(IBM-PC、1981年)ができる8年以上も前のことです。
この通信手段は、米国のゼロックス社の研究所、PARC(Xerox Palo Alto Research Center)で考え出されました。
その中心人物は、ボブ・メトカーフ(Robert Metcalfe:1946.04.07 - 、1979年3Com社設立)でした。
イーサネットのアイデアの原点は、米国が軍需用にデータ通信を構築していたARPANET(Advanced Research Projects Agency Network、1969年)に始まります。
ARPANETは、現在のインターネットの母体でもあります。
 
■ アロハネット(ALOHANET)
ARPANET開発の一貫としてARPAから資金援助を受けていたハワイ大学のノーマン・アブラムソン(Norman Abramson: 1932.04〜)が、ハワイに点在する島々を無線を使ってパケット通信を行うことに1970年に成功しました。
この通信網はALOHAnet(アロハネット)と呼ばれました。
ALOHANETは無線通信であったものの、複数の機器が同一ネットワークを簡単に構築できる特徴を持っていました。
このネットワークでは、データ通信の周波数を一定にしてデータを細切れのパケットとして送信を行っていました。
パケット通信は、現在のデジタル通信においては携帯電話や電話などすべての分野で使われているものです。
この細切れのデータ(パケット)の送受信を確実にするために、受信した相手からデータを受け取ったとする確認の信号が返ってくる仕組みを作り送受信を確実にしました。
また、複数の機器が同時にデータを送信した時に生じるデータ衝突を回避する機能も持っていました。
この機能は以下に述べるCSMA/CD(Carrier Sense Multiple Access/Collision Detection)として発展します。
 
イーサネットの初期構造は、一本の同軸ケーブルにコンピュータから接続線を延ばして結線していた。 ハブ構造ではなかった。 1本の同軸ケーブルは、終端処理されデータの混信を防いでいる。データの送受信は、現在のネットワークに比べるとシンプルであった。反面、信頼性は低く、通信トラブルも多かった。
コンピュータ同士が通信し合えるという画期的なものであった。
■ PARCとAlto
ALOHAnet通信方式に興味を持っていたのが、当時ハーバード大学大学院生であったボブ・メトカーフでした。
彼は、ハーバード大学院時代からARPANETの研究に従事していました。
彼は大学を卒業した後、ゼロックス研究所(PARC)に就職します。
PARCでのメトカーフの研究グループは、何台ものコンピュータ(Alto)とプリンタ間相互の通信速度を上げる方法を探していました。
当時のコンピュータの通信というのは、パソコン同士ではなくて紙へ出力するプリンタへの通信が主目的でした。
彼らが1973年に開発したコンピュータのアルト(Alto)は、時代の最先端を行くもので、現在のパーソナルコンピュータの主流技術であるマルチウィンドウ(複数の画面を表示できる機能)を持っていたり、表示画面をビットマップ処理によって表示し、アイコンを備えてsmall talkという言語でゴミ箱やフォルダ操作を感覚的に行うことができました。
また、パソコンの操作にはマウスを使い、コンピュータ同士が通信し合えるネットワーク機能を備えるまで進化させていました。
現在のパソコン(Windows、マッキントッシュ)のほとんどの機能が当時のAltoに集約されていたのです。 彼らが開発したマウスや、マルチウィンドウ、アイコンのアイデアは、40年の歴史(1980年代〜2020年代)を持つパソコンの世界で生き続けています。
Altoは市販されませんでしたが、Altoの機能のほとんどを取り入れたパソコンがアップル社からLisa(リサ、1979年)として発売されました。
Altoは、アップル社とは別にゼロックスの研究所で進化し、1981年にXerox Starとしてワークステーションの位置づけで市販化されました。
このワークステーションは、イーサネット機能を装備した最初のコンピュータでした。 
当時、コンピュータもプリンタもそれ自体の処理速度はそこそこ速くなっていました。
しかし、プリントに要する時間がとても長くかかっていました。
プリントに長い時間がかかる原因は機器双方のどちらでもなく、二つのマシンをつなぐケーブルにありました。
印刷するページ画像は、いったんコンピュータのメモリ上で組み立ててから、ビット単位でプリンタに転送されます。
プリンタの解像度が600dpi(ドット・パー・インチ。解像度の単位で1インチ当たりのドット数を表す)の場合、ケーブルを経由して1ページあたり3,300万ビット(4MB)以上のデータを送り出さなければなりません。
当時のコンピュータは、1ページ分の画像を1秒間でメモリ上に展開でき、プリンタはそれを2秒でプリントできました。
しかし、問題はデータの転送であり、当時は高速だと考えられていたシリアル転送を使っても、このデータを全て送り出すのに15分近くかかったのです。
 
 
■ CSMA/CD(Carrier Sense Multiple Access/Collision Detection)
メトカーフは、データを通信する方式として電話の共同加入線(パーティライン)という概念を導入しました。
パーティラインとは、電話会議に採用されている電話通話の方式で、一度に複数の人たちと会話(電話会議)ができるものです。
パーティラインに参加する人たちは、通常、電話で話かける前に、受話器に耳を傾けます。
そして誰も回線を使用していない合間を縫って話しをはじめます。
また、パーティラインに流れている情報に対して、興味がなければ何もしなくてよく、自分に関係があることや情報を提供したいときにパーティライン上に話を持ち出せば興味のあるパートナーがそれを聞いてくれて反応してくれるという仕組みになっています。
イーサネットも同じ方式を採用しました。
つまり、回線の様子をうかがって、他で転送が行われているようならばランダムに時間をあけてもう一度かけ直す方式としたのです。
電話回線の状況を見ながら話したい相手に情報を届ける方式を採用しました。
こうすることにより、複数のコンピュータとプリンタは一本の同軸ケーブルで配線できるようになります。
同軸ケーブルには、一秒間に267万ビット(2.67Mbps)のデータを転送できるようにしました。
この方式によって、それまで15分かかっていた解像度600dpiで印刷する書類の転送時間を12秒まで短縮できるようになりました。
データ通信の制御を行うこの方式は、CSMA/CD(Carrier Sense Multiple Access/Collision Detection)(キャリア検知多重アクセス/コリジョン検出)と呼ばれているものです。
難しい名前がつけられていますが、仕組みは先に述べた通りです。
つまり、イーサネットでつながったコンピュータは自由な発言が許される反面、他の相手が話しているときには発言することができない工夫を施し、相手が発言しているかどうかを見る機能を備えたのです。
それがキャリア検出(Carrier Sense)機能です。
同時に発言が出されて衝突が起きた場合は、これを回避する衝突検出(Collision Detection)機能も設けました。
相手が発言している(データを送信している)と言っても、イーサネットの場合はデータを細切れ(パケット、データグラム)にして送り出しているので、他のコンピュータが入り込む余地は十分にあります。
この細切れのデータはMACフレーム(Media Access Control Frame)という塊として扱われます(右上図参照)。
MACフレームは、データの前に宛先アドレスと送信元アドレスのタグがつけられて相手に送信されます。
データは、46〜1,500バイトを任意に選ぶことができ、データの大きさ(データグラム)が小さい設定では確実な送信ができる反面すべてのデータを送るのに時間がかかり、大きいと速く送れるかわりにデータの受け渡しに失敗する可能性が高くなります。
複数のコンピュータが送信を始めて通信回線上に送り出されるデータが多くなると、各コンピュータはデータの合間合間を縫うようにして送り出すようになるので交通渋滞が起きている状況と同じになり、相対的な送信速度は遅くなります。
 
■ イーサネットのいわれ
2.67Mbps(メガビット・パー・セカンド)の転送速度を持つイーサネットは、とても魅力的なシステムでした。
開発当時は考えても見なかったことで、後でわかったことにイーサネットはコンピュータとプリンタをつなぐだけでなくコンピュータ同士の接続も行えました。
どのアルトにもイーサネット機能が付けられて、プリンタとネットワークで接続された環境では、各コンピュータにアドレスと名前をつけることになります。
全ユーザが自分のアルト(ワークステーション)に名前をつけたときコンピュータ同士が認識できるようになり、互いにデータを通信し合えるようになったのです。
ネットワークの母体が完成したのです。 
2.67Mbpsのイーサネットは、頑丈で比較的単純な技術でした。
コンピュータとプリンタは、一本の同軸ケーブルにT-BNCで芋づる式に接続するだけでよかったのです。
これをPARC(ゼロックス研究所)は10Mbpsまで速度を上げました。
不運なことに、3倍強の通信速度を上げた10Mbpsのイーサネットは、複雑な技術を必要としました。 
このようにして、1本のケーブル線で互いのコンピュータや周辺機器を接続したことにより、まるで光が宇宙を伝搬していくように高速で快適な通信ができるようになりました。
イーサネットは、光を伝搬すると考えられていたエーテル(Ether=イーサ)をもじって、エーテルのネットワークという意味でエーテルネット(Ethernet = イーサネット)と名付けられました。
イーサネットは、1982年、IEEE802.3で規格化されました。
 
 
▲ 半二重通信、全二重通信(Half Duplex、Full Duplex)
イーサネットに限らず電話回線などを使ったシリアル転送は、たえず送り手と受け手の関係(転送手順)がつきまといます。
つまり、コンピュータとプリンタのように話手がコンピュータで聞き手がプリンタのようにデータの通信方向が一方向のものであれば、一本の通信ケーブルを使っても通信は行えます(片方向通信、Simplex)。
しかし、互いがコンピュータ同士であったり電話での会話の場合には、話し手が聞き手に回ったり、聞き手が質問に対して応えなければならないケースが多く出てきます。
一本の通信線でこれを行う場合、例えばトランシーバや一本の糸電話を想定してみますと、話し手が聞き手に情報を伝達し返事が欲しいときに「どうぞ」と自身の話を終わる意志表示をします。
そうして互いにトランシーバの送信ボタンを切り替えたり、糸電話を口から耳に変えて情報伝達を逆向きにさせます。
このような手法のことを半二重通信と呼んでいます。
半二重通信は、一本の通信線で交互に送信と受信を切り替える方法でした。
イーサネットでは初期の同軸ケーブルを使ったもの(10BASE-2、10BASE-5)が半二重方式を採用していました。
これは当然の事ながらデータの通信が煩雑となりデータの衝突や交通渋滞を招きやすいものでした。
このデータの衝突を監視して交通整理を行う機能が先に述べたCSMA/CDです。
この機能によって一本の同軸ケーブルでも多数の機器が相互乗り入れしてデータ転送を行うことができるようになりました。
全二重通信は、送信線と受信線が分かれていて送信と受信を個別に行える方式です。
これは、電話回線やイーサネットのツイストペアケーブル(10BASE-T、100BASE-TX) で採用されているものです。
全二重方式では、データの流れの方向性が一定でスムーズであり送信と受信が同時に行えるのが大きな強みです。
この通信では2対のペアラインで送信(TxD)と受信(RxD)を行うのが普通ですが、必ずそうであるとは限りません。
例えば、周波数を変えて送信するという方式では1本の信号線を使って全二重送信を行っているケースもあります。
全二重通信ではデータの衝突という不具合が起きないので、データ衝突回避機能(CSMA/CD)を使う必要はなくなります。
しかし、ケーブルを接続するハブがスイッチング・ハブではなくリピータ・ハブの場合は、このハブが全二重送信を行わないので、ツイストペアケーブルを使ったとしても半二重通信となります。
全二重通信が行えるのはクロスケーブルを使ったコンピュータ同士の直接接続か、スイッチング・ハブを使った接続に限られます。
 
▲ 同軸ケーブルからツイストペアケーブルへ
イーサネットが開発された当初、データを伝送するケーブルには同軸ケーブルを使っていました。
1982年にイーサネット規格IEEE802.3が制定されたとき、ケーブルは10BASE-2という規格でまとめられました。
この規格は、直径5mm、50Ω同軸ケーブルが採用されていました。
コネクタは、BNCを使っていました。
10BASE-2は、10Mbpsの速度で200mの伝送距離性能を持っていました。
当時としては、かなり長距離で、かつ高速通信だったと言えます。BNCコネクタを採用したのは、使い勝手と信頼性が良いからだと思います。
この方式は、10BASE-5というカテゴリーで500mの伝送性能を持つようになります。
 
ツイストペア式のケーブル
(UTP = Unshielded Twisted Pair)は、4年後の1987年に登場し、1990年に10BASE-T規格となりました。
なぜ、同軸ケーブルからツイストケーブルに変わったのでしょうか。
その理由の一番大きなものは、価格であったと言われています。
同軸ケーブルは、周波数特性が安定していて長距離伝送にも耐えられる性能を持っていましたが、価格が高かった。
敷設費用を低く抑えたいという要求から、ツイストペア式ケーブルが開発されたと言われています。
ツイストペアケーブルの原型は、電話ケーブルです。
これは、電話回線を使った通信網を研究していたAT&TとIBMがトークンリング(Token Ring = IEEE802.5、通信速度4Mbps[1985年]もしくは16Mbps[1989年])という技術を開発したのに始まります。
トークンリングは、一種の高速データ通信規格でした。
この通信方式に、電話回線で使うツイストケーブルを使っていたので、その延長線上にあったイーサネットもこの技術を流用して10Mbpsの伝送速度を満足する仕様を構築しました。
トークンリングは、イーサネットが開発された当時はライバル関係にありました。
しかし、イーサネットの方が使い勝手良く伝送スピードも速いものが開発されて行ったので、ギガイーサネットが開発された1999年以降、TokenRingの開発は停滞してしまいました。 
ツイストケーブルを採用したイーサネットは、高速通信は満足できたものの長距離伝送が難しく、10BASE-Tでは100mまでと規定されていました。
伝送距離がそれほど長くとれない撚り線式ケーブルの10BASE-Tでしたが、伝送距離の短さをハブを用いることによって克服し、敷設費用が安くできることと簡単な工事が功を奏して、以後、100BASE-Tや1000BASE-T規格としてTタイプ(ツイストケーブルタイプ)が普及することとなりました。
右の表を見てもわかるようにツイストペアケーブルでギガヘルツ帯域のデータを送ることがいかに困難であるかがわかります。
同軸ケーブルや光ケーブルならたやすく達成できるこの速度も、ツイストペアでは困難であるために以下で説明するギガビットイーサネットでは巧妙な方法を用いてギガビットの速度を達成しています。
 
▲ モジュラージャック(Modular Jack)
イーサネットケーブルに使われているコネクタは、電話で使われているモジュラージャックに形状が極めて似ています。
電話のモジュラージャックは、米連邦通信委員会(FCC:US Federal Communications Commission)が制定したRJ-11(RJはRegistered Jackの略)という6ピンのものが一般的で、他にRJ-14、RJ-25、RJ-45、RJ-48などが取り決められています。
イーサネットケーブルに使われるモジュラージャックは、RJ-11より大きい8ピンのものを使っています。
形状が電話用に規定されたRJ-45モジュラージャックに極めて似ているため、RJ-45という呼び方が一般的になっています。
しかし、本来、電話用のRJ-45はイーサネットで使われるRJ-45とは形状が若干異なり、配線も異なります。
電話用RJ-45は、結線が中央部の2つのピン(No.4 + No.5)だけしか結線されておらず、残りのピンは抵抗器で短絡処理されています。
またジャックの形状が片側の横部に出っ張りがもうけられていて(キー溝処理)、キーのついたRJ-45ジャックはイーサネットに接続できないようになっています。
従って、イーサネットで使われるモジュラージャックは電話用のものと区別するために、「8P8C」という言い方をするようになっています。
どうしても「RJ-45」を使いたい場合は、「イーサネット用RJ-45」と但し書きで使うことが望ましいと言えましょう。
8P8Cモジュラージャックは、100BASE-Tまでは、2対(4線)しか使用しておらず残りの4線は開放になっていました。
つまり1番ピンと2番ピンを送信線(TxD)にあて、3番ピンと6番ピンを受信線(RxD)にあて全二重通信ができるようになっていました。
ギガビットイーサネットでは、4対8線の信号線をすべて使っています。
従って、100BASE-Tで使っていたUTPケーブルを1000BASE-Tで使う場合には、ピン配線がすべて結線されているカテゴリー5以上のものを使う必要があります。
 
▲ ストレートケーブルとクロスケーブル
RS232Cやイーサネットケーブルなどのシリアル転送を行うケーブルには、2種類の配線処理を施したものがあります。
ストレートケーブルとクロスケーブルです。どうしてこのような2種類のケーブルがあるのでしょうか。
コンピュータを直接接続(ピア・トゥ・ピア = peer to peer)する場合を考えてみます。
この場合、一方のコンピュータから送り出されるデータ(TxD)は相手の受信(RxD)ポートに入らなくてはなりません。
コンピュータは自身で送受信の切り替えを行いません。
従って、コンピュータ同士の直接接続をする場合送信データを受信側に持っていくクロスケーブルが必要になるのです。
ケーブルは本来ストレートケーブルが基本です。
コンピュータは多くの場合マスターになるものであり、コンピュータに接続される周辺機器はスレーブとなるので機器側には予め送受信を変換する機能、すなわち、ホストであるコンピュータから送られてくるデータを受信部で受けてホストコンピュータに送るデータはケーブルの受信ポートへ流す機能が備わっています。従って、この場合はストレートケーブルを使えば問題なく通信ができます。
コンピュータ同士はお互いがホスト(主人公)なのでストレートケーブルでは通信がなりたたないのです。
コンピュータ同士を接続する際に直接ではなくてハブを介して行う場合は、ハブ内部に送受信の切り替えがついているのでストレートケーブルを使うことができます。
クロスケーブルは、コンピュータ同士の一対一の接続などの極めて限られた用途に使われるだけで、ほとんどの場合ストレートケーブルが使われます。
100BASE-Tまでのケーブルは、以下に示す2対(4本)しか使っていません。送信線(TxD)と受信線(RxD)の2系統です。
クロスケーブルは、送信→受信という結線になっています。
ストレートケーブルは当然、送信→送信、受信→受信という配線です。
イーサネットケーブルのピン配置は面白い配線になっていて、ピン番号1から8まで順番通りになっていません。
4番ピンと5番ピンを避けて配線されています。
これは、イーサネットケーブルが電話線の規格と同じものを使っていて、電話線ですでに中央の4番ピンと5番ピンが使われているので、ここを避けてイーサネット通信に適用しました。
従って、送信は1番ピンと2番ピンを使い、受信は3番ピンと6番ピンを使う取り決めになっています。
ギガビットイーサネットでは、4対(8線)をすべて使わないと速度が足りないのですべて送信線になり、同時に受信線にもなっています。

 

 

▲ ギガイーサネット(Giga-bit Ethernet)
1999年に規格化された1000BASE-T(ギガイーサネット)では、8P8Cコネクタに結線されている8本すべてのピンを使って送信しています。
1Gビット/秒のデータ通信をこれまでのツイストペアケーブルの延長で行うと帯域が不足してしまうため、4対(8線)すべてを使って目的とする通信速度を達成しています。
この手法はもはやシリアルとは言い難くパラレル転送と言えなくもありません。
また、1000BASE-Tでは4対8線のすべてのケーブル線を使って送信するので、通信は全二重とはならずに半二重通信になるのではないかと思いたくなります。
しかし、ツイストペアケーブルを使うギガイーサネットではハイブリッド回路がもうけられていて、送信と受信を位相反転することによって混信を回避できるため4対8線すべてを使って同時に送受信が可能となっています。
さらにまた、1対の信号線には従来「0」と「1」の信号しか乗せていなかったものを1000BASE-Tでは電圧を変えて5種類(+1.0V、+0.5V、0V、-0.5V、-1.0Vの5進数)の信号パターンを使っています。
これを4対の信号ラインで同期を取って送るので、54 = 625種類のデータを一度に送ることができます。
2進数で言うと10ビットの数字を扱うことになります。
 
■ 8B1Q4(8bit-1 quinary quartet)の導入
8B1Q4は、とても難しい言葉です。
これは要するに1000BASE-Tでの信号を送る取り決めです。
1000BASE-Tでは4対8線すべてを使って高速通信をします。
このとき、4対の信号線に8ビットの情報を振り分けて並列に送る方式を採用しました。
これが「8B1Q4」という規格です。
この言葉の意味は、8ビットの情報を5進数(quinary)に直して4ライン(quartet)の通信線で送るという意味です。
1000BASE-Tでは、4対の通信線で5種類の信号パターン(5進法のデータ)を送りますから、4桁の5進数情報となります。
4桁の5進法は、10進法では54 = 625までの数値となります。
元の情報は8ビット(256種類)ですので数が倍以上多くなりました。
数を多くしたのは、高速通信でのエラーを防ぐために、元の8ビット情報にエラー検出ビットを1ビット加えて9ビット化しているためです。
9ビットデータは512種類なので625種類ある4桁5進法表示で十分に対応できます。
話をまとめますと、
『1000BASE-Tでは、既存のツイストペアケーブルを使って高速通信をするために4対の信号線をすべてを使って送信し、信頼性のあるデータとするために8ビット情報を9ビットにし、これをさらに4ラインに9ビット情報を振り分けるために5進法データとした。
ということになります。
この方式の採用によって、1ギガビット/秒のデータは4対の信号線で振り分けて8ビットの元情報を送ることになるので、1000Mビット/秒 / 8 = 125M ビット/秒の速度で送信すればよく、カテゴリー5のイーサネットケーブルを使ってもなんとか初期性能を達成できる数値となりました。

■ オートネゴシエーション(Auto-Negotiation)
ギガビットイーサネットの普及に関しては、すべてを入れ替えるのではなく既存の設備を最大限利用して通信速度を上げるというのが基本構想にありました。
ネットワーク社会に広く普及した100BASE-T環境のネットワーク設備の大枠を崩すことなくギガビット環境を織り込んでいくために、通信手順にオートネゴシエーションという機能が盛り込まれました。
この機能は、通信を開始する前にネットワークがギガビットベースでできるかどうかを確認し、できない場合には100BASEで行うというものです。従って、イーサネットケーブルがギガビットで送信できる性能にない場合やハブにもその性能が満足できない場合、低速で行うことになります。
この機能をオートネゴシエーションと言っています。
この機能は1000BASE-T対応のスイッチング・ハブに装備されていてデータを通信する際にどの速度で通信をするかを決めています。
 
■ ハブ(Hub)
ツイストペアケーブルを使うイーサネット接続では、機器はハブと呼ばれる中継器に接続されます。
ハブの仲間には機能上、以下に示すようなものがあります。
  
1. リピータ:
  ケーブルに流れる信号の中継を行うためだけのもの。
  単純にデータを右から左で流すだけなので、
  送信データの宛先を読み取って相手先に効率よく転送する機能はない。
  伝送距離が長くなる場合、リピータを中継してデータを転送する。
 
2. ブリッジ :
  リピータの機能に加え、転送先のMACアドレスを解読して
  適切なポートにデータを転送する(フィルタリング)機能が付加されている。
 
3. スイッチング・ハブ :
   現在、もっとも一般的に使われているハブ。
   ハブと言えばこれを指す。
   本来の目的は、4台から8台のイーサネット対応機器を接続して
    送信されてくるデータの宛先を読み取り適切にデータを転送し、
   配布しなくてもよい宛先にはデータを送信しない機能を持つ。
   階層化したネットワーク(ハブが何台もつながれた構造)での
   効率いデータ転送を行う。
   それに加え、通信の手順(半二重か全二重かの判断)や、
   接続されている機器が10BASE-Tか100BASE-Tか1000BASE-Tかの
   判断を行う。
   1990年代中頃までは高価であったが、低価格化と共に急速に普及した。
   現在のスイッチングハブは多機能になリ、ピータ機能やブリッジ機能、
   ルーター機能まで備えたものが市販されている。
 
4. ルーター
ネットワーク群相互のデータ通信を効率よく行うための中継器。
   インターネットが開発される中で、必要不可欠の技術がルータの開発
   であり、IMP(インプ:Interface Message Processorメッセージ転送装置)
   が開発された。
   IMPは、コンピュータそのものである。
   1969年に1号機が完成した。当時のIMPは、ハネウェル社製のDD516
   で、180cm(H) x 60cm(W) x 70cm(D)という大型のものであった。
   このコンピュータIMPを使って、ユタ大学の「PDP-10」 → スタンフォード
   大学の「SDC940」 → UCLAが所有している「シグマ7」での接続が行われた。
   ルータは、ネットワーク上で交通整理の役割を果たし、入ってきた
   パケット情報をどのルートに出してやるのが一番効果的かを判断
   して処理を行う。
  
 
▲ 二種類のツイストペアケーブル(UTPとSTP)
ツイストペアタイプのイーサネットケーブルには、性能別カテゴリーに分けられた種類の他に、構造上2種類のものがあります。
ケーブルをシールド線で覆った構造のSTP(Shielded Twisted Pair cable)と、シールド線を使わないUTP(Unshielded Twisted Pair cable)の2種類です。
右図にケーブルの体裁を示します。
STPケーブル(図の右ケーブル)では各ツイストペアケーブルがシールドされているのがわかります。
シールド線を使ったSTPの目的は、外部ノイズの侵入を防ぐためです。
シールドタイプのものは、ノイズ発生の多い工場などで有効であるものの、日本での普及は低く、シールド線を伴わないUTPケーブルが圧倒的です。
STPは、ヨーロッパで広く普及しています。
シールドタイプケーブル(STP)は、1000BASE-CXというカテゴリーに属していて、日本の家庭やオフィスで使われる1000BASE-Tのカテゴリーは、シールド線のないUTPです。
STPケーブルを使う場合は、これを接続するハブやルーターにアース対応のものを使わなければならず、これを怠ると効果が半減してしまいます。
シールドというものは、そもそも、装置から発するノイズを外に出させなかったり、外からのノイズを遮断する目的ですから、装置全体を完全に密封する形でシールドを施さねばなりません。
水道のホースや密閉容器と一緒で、穴が空いた箇所(シールド処理を施していない部位)があるとそこからノイズが容易に侵入するので、それがかえって大きな影響を及ぼします。
シールドは、特にコネクタ部でシールド性が保たれない場合が多く見られます。
STPは、シールドが施されている関係上取り回しが悪く、距離も25mと限られています。
また、ハブなどの関連機器を含めたコストがかかるため、この規格が普及をみない大きな理由となっています。
日本では、ノイズに対する配慮をしなければならない高速通信には、STPよりも光ケーブルを設置する傾向にあります。
CAT7のLANケーブルはSTPケーブルとなっていて接続する機器にそれ相応のシールド対策を施したものを使う必要があり、2018年時点の使用範囲は限られています。
   
 
【GigE Vision】  (2010.02.28追記)
GigE Vision(ぎぐいー・びじょん)は、ギガビットイーサネット技術を元にした産業カメラでのデータ通信規格です。
この規格は、AIA(the Automated Imaging Association、1984年設立)が策定して管理しています。
この規格は、1999年に開発されたギガビットイーサネット規格を産業カメラに対して有効にかつ簡単に利用できるように細かい規格を取り決めたものです。
GigE Visionは、一般に公開された規格ではなく、これを使う場合にはAIAに加盟し、有償でこの規格の使用許可を得る必要があります。
AIAは、営利団体ですからもっともなことです。  
 
GigE Visionの大きな特徴は以下のとおりです。  
【特徴】
1. データ転送速度: 1000 Mbps。
2. ケーブル長: 100m max. カテゴリ5以上の品質をもつケーブル
3. カメラ機器との簡便な認識 - Device Discovery機能
4. 10Gイーサネットに対応
 
この特徴を見る限り、一般のイーサネット規格とさほど大きな差異は見あたりません。
GigEはイーサネット規格ですから当然と言えば当然です。
ケーブルもハブもパソコンもギガビットイーサネット対応の市販品が使えます。
しかし、イーサネットの性能ギリギリまで転送速度を向上させている点やカメラの認識のしやすさという点で細かい規定が施されています。
GigE Visionは、産業カメラ向けに使いやすいにように規格を絞ったもの、と言えましょう。
 
■ UDP/IP
GigEを使うと何がメリットがあるかというと、ギガイーサネットの通信速度帯域を規格の上限までに引き上げることができます。
通常のギガビットイーサネットは、通信手順が手堅いためにデータ通信速度の上限が規格の1/3程度でした。
GigEでは、通信速度を上げるために、通信手順にUDP/IPを使っています。
この規格は昔(1980年)からありました。
標準的なイーサネット通信プロトコルは、TCP/IPです。 UDP(= User Datagram Protocol)は、シンプルなデータ転送手順で、データ量(= Datagram)を任意に決めてデータを送ることができます。
UDPでは、データのパケット毎に受信側がデータを受け取った確認を行わずに一方的にデータを送り続けます。
この方法によってデータ転送速度を向上させ、規格速度に近づけています。
この規格では、当然、データ通信時のエラー発生時の処理が問題となります。
しかし、UDPでは、この件に関しては規格として決めていません。
この問題は、ユーザ側で対応すべきものとしています。
したがって、UDPでは、エラー処理をアプリケーションソフトウェアで対応していました。
GigEは、このエラー処理手順を決めて規格化したと言えます。
ちなみにTCPは、Transmission Control Protocolの略で、インターネットで一般的になっている通信手順です。
インターネットではこの手順で全世界をつないでいます。
TCPは、データパケット毎に通信が完了したかを逐次確認しています。
当然TCPでは確実な通信手順を行うのでデータ転送速度が上がりません。
 
■ Discovery( = カメラの認識)
イーサネット接続でやっかいなのは、イーサネット機器とコンピュータとの接続です。
インターネットに接続する場合、サーバの決まりによってインターネットプロトコルを設定しなければなりません。
もっとも大事な接続はIP設定です。これを正しく設定しないとネットワークに接続できません。
GigE Visionでは、イーサネット接続を簡単にできるようにしています。それが Device Discovery 機能です。
GigE Visionでは、3段階によってIPアドレスを設定できるようになっています。 つまり、
1. 固定IPアドレス(Persistent IP)
2. 自動取得(DHCP = Dynamic Host Configuration Protocol)
3. LLA(Link Local Address)設定
の3種類です。
GigE Visionでは、カメラを立ち上げて接続されたネットワークでコンピュータとアドレスの確認をするとき、上の3種類で次々と接続の可能性を確かめて行きます。
本来ならば2番目のDHCP(自動取得)が一番簡単なのですが、たくさんのカメラが一度にONされるとそれぞれの認証に時間がかかってしまうために、上の3つを柱として迅速な接続設定がなされます。
 
■ GVCP ( = 通信手順)
GVCPは、GigE Vision Command Protocolの略で、GigE Visionで使われるコマンドのことです。
このコマンドを使ってカメラを操作します。
規格が決まっているのでカメラを作る側も使う側もカメラタイプを気にすることなく操作ソフトウェアを開発したりカメラ操作を行うことができます。
通信手順は、ヨーロッパのEMVAという団体が無償のGEN<i>CAM というプログラムインターフェースを出しているので、多くのユーザはこれを利用しています。
 
■ GVSP ( = ストリーミング手順)
GVSPは、GigE Vision Streaming Protocolの略で、カメラからの画像をコンピュータに転送する手順を決めたものです。
ギガビットイーサネットでは、従来のパケットサイズよりも大きなジャンボフレームが設定できるので、より高速なデータ通信が可能となっています。
 
■ GenICam ( = カメラ操作規格)
GigEが有償の規格であるので、GenICamという無料のプログラムインターフェースを利用すればGigE対応のカメラが操作できます。
GenICamは、abbreviated for Generic Interface for Camerasの略で、GigEやCameraLinkなどに対応した産業カメラの操作を統一化するために作られたインタフェース規格です。
この規格は、欧州のEMVA( = European Machine Vision Association)が2006年にリリースしたものです。
GenICamで決められた規格に従い、XML言語(インターネットブラウザで使われる言語)でカメラ操作ソフトウェアを作れば、GigEに対応した産業カメラを動かすことができます。
カメラのシャッタ速度やゲイン設定、データ通信などは、この規格とイーサネット規格を利用します。
GenICamは、EMVAより無料でダウンロードできます。
CoaXPressに採用されている同軸ケーブル。 ビデオケーブルと同等の75ΩBNCケーブルが使われている。 下のケーブルは、5本の同軸ケーブルを1体化した 5W5と呼ばれるケーブル。 5W5ケーブルは、5m、15m、50mの
3種類の長さが供給されている。
 
【CoaXPress】(シリアル通信)   (2010.03.28)(2013.02.11追記)
CoaXPress(こあっくすぷれす)は、ビデオ用75ΩBNCケーブル(右写真)を使った高速データ通信規格です。
同様のものに、放送局で使われているHD-SDIがあります。
CoaXPressは、計測用デジタルカメラのデータ通信用に開発されたもので、最大通信速度6.25G bit/sの性能を持ち、4本同時に使用すれば25G bit/sの通信速度が得られます。
CoaXPressの特徴は以下の通りです。
 
【CoaXPressの特徴】
・1本のBNCケーブルを使用(シンプルで簡便な結線)
・高速通信(ギガイーサネット通信よりも6倍以上高速)
・長距離通信(100m以上)
・1本のBNCケーブルでカメラへの電源、カメラ制御、
データダウンロードを行う。
 
CoaXPressの通信速度は、CameraLinkと同程度、もしくはそれ以上の通信速度となります。非常に高速でかつ簡便な通信手段です。 この規格は、オランダに本社を置く
カメラメーカのAdimec社が中心となって開発されました。
その後、2009年にコンソーシアムができて規格化されました。 CoaXPressを使った製品は、2010年末に発売される予定です。
2010年時点では、最も新しいデジタル通信規格と言えます。
この規格に参画したのは、以下の企業です。  
・ Adimec社(オランダ) - カメラ開発
・ Active Silicon社(英国) - 画像ボード開発
・ EqcoLogic社(ベルギー) - 送受信素子開発
・ Components Express社(米国) - ケーブル担当
・ アバールデータ社(日本) - 画像ボード開発
・ 日本エレクトロセンサデバイス社(日本)
           - ラインスキャンカメラ開発
 
日本では、JIIA(Japan Industrial Imaging Association、日本インダストリアルイメージング協会)が標準化に向けて活動を行っています。
この規格の大きな特徴は、同軸ケーブルという馴染みの深い簡便なインフラを使ってカメラとコンピュータを簡単に接続していることです。
同軸ケーブルの特徴であるケーブル長を長くすることができ、100m以上の通信距離を可能として、尚かつ最速レベルの通信速度を達成しています。
同軸ケーブルは、不平衡ケーブルですから、データは不平衡信号となります。
イーサネットやUSBで使われている差動信号と異なります。
同軸ケーブルは、長距離通信が得意であるものの無尽蔵に長くすることはできません。
CoaXPressの規格である6.25G bit/sの転送は、100mの長さに渡って行うことはできず、ケーブルの長さやBNCケーブルの種類によって伝送スピードが変わってきます。
およそ30m程度までであれば最高スピードは確保されているようです。
この規格の面白いところは、BNCケーブル1本でカメラへ電源(最大13W)を供給し、カメラ制御信号を送り、かつ画像データを高速で受け取ることができることです。
以下に、CoaXPressの機能図を示します。
CoaXPressでは、CoaXPress対応のカメラと画像ボードが必要です。
ケーブルはBNC1本を接続するだけです。
CoaXPressの心臓部は、EqcoLogic社(ベルギー)が開発したCMOS技術のEQCO62T20/EQCO62R20素子で、これでBNCケーブルを使ってデータ送受信できるようにしています。       
 
 
   
 
【Fire Wire = IEEE1394、i.Link】(シリアル通信)  (2009.09.12追記)
 
■ 開発背景
FireWireは、IEEE1394という名前で知られているシリアル高速データ通信規格です。
IEEE1394のコネクタ。iLinkや小型パソコンでは右の小さいコネクタが使われる。
大容量ハードディスクや、DVD、カメラとの接続に使われています。
この規格は、米国アップル社が当時高速通信の代名詞であったSCSIパラレル転送の置き換えを狙ったものです。
1980年代後半から開発を手がけて、1995年に完成しました。
アップルが開発したシリアル転送方式は、当初Fire Wireと呼ばれていましたが、標準化によってIEEE1394となりました。
この高速データ通信インタフェースは、1998年になってソニーをはじめとした関連企業が採用を始めました(1999年1月15日、アップル社は新型G3Mac=GossamerにこのFireWire通信機能を標準でサポートしました)。
ソニーは、この規格に i.Link という呼称を与えました。
この高速通信インタフェースは、USB1.0とほぼ同時期に登場しました。
両者が出始めたとき、双方の性能はそれほどかぶってはおらず、両者の棲み分けはできていました。
USBがマウスやキーボード、プリンタなどの比較的低速のデバイスをサポートしていたのに対し、IEEE1394は開発の目的を高速通信と使いやすさに置いていました。
USBが、コンピュータの一元管理で接続から解除、通信管理がなされるのに対し、FireWireはコンピュータの管理を受けなくても通信を行うことができました。
接続も安定しており、通信時でのパソコン負荷がかからないため実効スピードはUSBよりも優れていると言われていました。
FireWireのターゲットはSCSIであり、SCSIに比べると随分と使いやすいものになりました。
FireWireは、通信ケーブルを長くすることができ、SCSIと同じようにディジーチェーンで機器を接続することができました。
また電源も同一ケーブルで供給できるホットプラグ対応でした。
 
■ 通信速度
IEEE1394の通信速度は、当初、12.5Mバイト/秒、25Mバイト/秒、50Mバイト/秒で策定されました。
ケーブルは6ピンで構成され、2対4線の信号線と+8VDC 〜 +30DC、1.5Aまでの電源を供給するパワーライン2本で構成されています。
4ピンの小さいコネクタは、パワーラインが無く信号線だけとなっています。
ケーブル長は1本当たり4.5mで、リピータの使用により最大総延長72mとすることができ、ケーブル太さもφ6mmでSCSIのφ10mmに比べて細くなっています。
また、接続できる機器は63台までという規格になっています。
これもSCSIよりははるかにたくさんの機器を接続する仕様となっていました。
IEEE1394a(2000年)の転送速度は、400Mbpsとなっていてビデオ画像を十分に送る能力を持っていました。
また、2002年には800M bpsのスピードを持つIEEE1394bができあがり、さらに2006年にはIEEE1394c-2006という規格ができ、LANケーブル(カテゴリー5)を使って800M bpsの転送速度を持つようになりました。
 
■ USB2.0との比較
IEEE1394は、製品が世に出されたタイミングが極めて近いUSB2.0とよく比較されます。
USBは、そもそも高速通信を行う目的として作られたのではなかったのですが、USB2.0で高速通信ができるようになるとIEEE1394の通信速度が遅く感じられるようになって、USB2.0の後塵を拝する感じを受けるようになりました。
現在のパソコンにはUSBポートがたくさんついているのに対し、IEEE1394はソニーのVAIOとマッキントッシュ以外はオプション扱いになっています。
こうしたことから、IEEE1394b(2002年)では転送速度を800Mbpsと速くして、USBとの差別化を図るようになっています。
Fire Wireは、1対1で使うことが多い応用(デジタルカメラをパソコンに接続するとか外部HDDを接続する目的)では転送効率が良いために、」実質上のデータ転送がUSB2.0よりも優れていると言われています。
(2018.11.12追記)上記を書いた2002年の時点から16年が経過しました
パソコンには、標準でIEEE1394ポートが装備されることはなくなりました。
2018年時点のパソコンは、USB3.0ポート(及びUSB2.0との混在)とHDMIポート、SDカード挿入スロットが大方を占めています。
Apple社のiMac、MacBook Pro はThunderbolt3.0に特化しています。
2009年に制定されたUSB3.0が5G bpsの速度が出せるようになると、多くのユーザが取り扱いが楽なUSB3.0に流れて行くようになりました。
▲ i.Link
デジタルムービーカメラの画像転送インタフェースとして使われているのがi.Linkと呼ばれる通信方式です。
これは、パソコンのIEEE1394と同じもので、呼称を変えただけです。
i.Linkで扱うテレビ信号には、i.Link(TS)(Transport Streamの略)と、i.Link(DV)(Digital Videoの略)とがあります。
i.Link(TS)はデジタル放送で使われるMPEG-2 TSであり、家庭用DVD機器との接続に使います。
i.Link(DV)は家庭用デジタルビデオで使われているDV信号です。
これらは、同じIEEE1394の仲間ですが互換性がないために、i.Link(TS)端子とパソコンのIEEE1394端子にケーブルを接続しても映像を取り込むことはできません。
ただし、i.Link(DV)はIEEE1394と互換があるため、家庭用のデジタルビデオカメラ映像をIEEEE1394ケーブルを介してパソコンに取り込みことができます。
デジタル受信機では、両者の信号を明確にするためにi.Link(TS)、i.Link(DV)が明記されています。

 
上に示したコネクタは、IEEE1394bに採用されている9ピンコネクタです。
ピン配列を見てみますと、旧来の6ピンコネクタよりシールドラインが3本増えて9本になっていることがわかります。
通信ラインは2対4線でツイストペアになっていて、一方の送信ライン(1ピンと2ピン)が他方の受信ライン(3ピンと4ピン)で結線されてクロスケーブルになっていることがわかります。
2008年に発表されたIEEE1394c-2006では、イーサネットで使われているカテゴリー5のLANケーブルの使用が決められています。
これはFireWire 800Tとも呼ばれているもので、インターネットで実績を積んだケーブルを使うことによりより使い勝手のよい(そして安価な)通信網を構築しようとしたものと思われます。
しかし、2009年の時点ではこのケーブルを使った機器やカードが市販化されたという話は聞いていません。
【2012.08】
2012年夏の時点でIEEE1394bを標準で装備しているパソコンはほとんど見あたらず、ソニーのVAIOとアップルのMacintoshがiLinkとFirewire800という名前で装備させています。
 
 
 
 
   
 
【USB = Universal Serial Bus】(シリアル通信)  (2009.04.01追記)(2018.11.09追記)(2022.05.10追記)
 
■ 開発背景
USB (Universal Serial Bus)は、名前が示す通りパソコンに接続されるさまざまな周辺機器の通信形態を統一したシリアル転送によるインタフェース規格です。
USBポート。取扱が簡単。管理された電源も供給される。
USB2.0では480Mbpsの通信を可能にした。
接続機器は、マウスからキーボード、プリンタ、ハードディスクドライブなどコンピュータに接続される機器すべてが対象となりました。
USBは、1993年頃よりインテル、マイクロソフト、コンパック(現ヒューレット・パッカード)などの米国のコンピュータ関連企業と、日本のNECによって共同研究が始められ、その後、デジタル・イクイップメント(DEC)、IBM、ノーザン・テレコム(現:ノーテルネットワークス)が加わって、3年後の1996年1月にRevision1.0として正式発表されました。
このインタフェースは多目的に使われる通信方式であるため、Universalという名前がついています。
そのUSBも2022年5月を迎え、30年近くパーソナルコンピュータの通信手順として現役を続けています。
 
USBは、2000年あたりから急速に普及し、パソコンのインターフェースの中で最もよく使われる代表的なものとなりました。
通信速度がそこそこ速くて使い勝手がとても良いというのがUSB普及の大きな要因でした。
USBは進化を続けUSB2.0、USB3.0となり通信スピードを12M bpsから20G bps(USB3.2)と1700倍のスピードアップを達成しています。
1998年5月、マッキントッシュのiMacが発売されました。
その驚異的な売上で有名になったパソコンに標準装備されていたのが、シリアル転送方式のUSBでした。
iMacでは、マッキントッシュが従来使用してきたプリンタポート、ADBポート(RS422シリアル転送)、SCSIを廃止してこの新しい方式を全面的に採用しました。
現在ではしごく当たり前の出来事と思えることが、20年前では斬新的だったのです。
また、USBの決定的な普及を見たのは、Windows98がUSBを標準でサポートしたことによります。
 
■ 機能
USBは、マウスなどの低速データ通信からプリンタ出力へのまとまった量のデータ通信まで幅広い応用に活躍し、USBハブの使用によって最大127種類の機器との接続が可能です。
USBでの通信はコンピュータなどのホストがすべてを管理し、接続確認からデータ転送の管理、電源の管理などをすべて行います。
従って、この規格は単なる電気規格だけではなく、コンピュータ(ホスト)による管理を必要とします。
USBは、ホストを中心とした接続なので、頂点にホストが位置するツリー構造(木構造)となります(右図参照)。
USB機器がケーブル接続されてホストがデバイスを認識すると、ホストはデバイスにIDを割り振ります。
割り当ては7ビットで行われるため、「0」を除いた127の番号がデバイスに当てられます。
ハブも一つのデバイスとしてカウントされます。
ケーブルは1本あたり最長5mであり、ハブは5台までシリーズに接続することができます。
従って、ホスト(コンピュータ)から末端のデバイスまでのケーブル総延長は、5m x 6階層 = 30mとなります。
ケーブルは、データ線が1対(2線)しかない単純なものです。
一対のデータ線であるため一方通行の信号通信となります。互いの送信を行うときは通信の切り替えを行う必要があるため、半二重通信となります。
 
■ 通信の4つのモード
USBの巧妙な所は、転送モードを4種類に分けていることです。
各デバイスにはこれら4種類のモードのいずれかが割り当てられ、データの交通整理を効率よく行っています。
4種類の転送モードは、以下の通りです。(これはUSB1.1のものです。)
 
1. コントロール(Control):
     USB接続や解除時のデバイス認識、パラメータ設定通信。
     通信は半二重。  転送の周期は不定で、必要に応じて行われる。
     データ量は8バイトで、転送速度は1.5M bps。データを受け取ったか
     どうかの再送機能あり
 
2. インタラプト(Interrupt):
     マウス、キーボードなどの低速通信用に使われる。デバイスが自ら定義している
     転送周期(N = 1ms 〜 255 ms)で、デバイスからデータを転送する。
     データ量は、1 〜 64 バイト。マウスやキーボードは、いつデータがコンピュータに
     送られるかわからないので、コンピュータ(ホスト)は、1/1,000秒〜1/4秒
     でデバイスにアクセスしてデータを出しているかチェックしている。
     転送速度は1.5M bpsと低い。データを受け取ったかどうかの再送機能あり。
 
3. アイソクロナス(Isochronous):
     ビデオ信号などの垂れ流し転送用の設定。データ受信の確認を行わず一方的にデータを送る。
     1ミリ秒毎に1フレームの転送を行う。データ量は、1 〜 1,023バイト/フレームで、
     最高12Mビット/秒の転送を行う。
 
4. バルク(Bulk):
     プリンタ転送などの一括大容量転送用の設定。データ受信の確認あり。
     データがうまく送れなかった時は再度同じデータを送る。
     インタラプトとアイソクロナスでの転送がないときを見計らって、
      8/16/32/64バイトの4種類のいずれかで転送。
     細かいデータ量であるが、12M bpsの最高の転送速度を持っている。  
これらの転送モードは、USBが低速から高速までのデータ通信を行わなければならない関係上、効率よいデータ転送のために決められました。
マウスやキーボードのデータは、量的にそれほど多くはないものの、絶えずそれらの情報を監視してその情報でコンピュータを動かさなければならないので、インタラプトモードが指定されます。
プリンタやメモリスティックなどへのデータ転送は、まとめて一気に行う必要があるのでバルク転送となります。
ビデオ画像を表示する装置では連綿と大量のデータが送られるので、再送要求を行わないアイソクロナス転送となります。
 
これら4つの転送モードで、どのモードの優先度が一番高いかというと、
 
アイソクロナス転送   >  インタラプト転送  =  コントロール転送   >  バルク転送
 
という順番になっています。
プリンタへのデータ転送(バルク転送)は優先順位が低いために、他のデータが通信ラインを占有しているとそれが空くまで待つ仕組みになっています。
通信が空いた瞬間を狙ってデータを送り出し、合間を縫って再びデータを送り出す仕組みをとっています。
一番優先順位が高いのはアイソクロナス転送で、すべての通信に優先します。
この通信が行われてこれがマシンに負担をかけている場合、マウスもキーボードも動きがぎこちなくなります。
私が使っているパソコンにはUSB接続のテレビアダプタがついていて、テレビをパソコン上で放映させながら他の作業をすると速度が落ちます。
アクティビティモニタを使ってコンピュータのCPU稼働率を見てみると(下図参照)、USBテレビのアプリケーションでのCPUの負荷は109.2%を示しています。
このことから、USBによるテレビ放映はコンピュータにかなりの負担をかけていることが理解できます。

■ 電源管理
従来の通信ポートは、コンピュータに電源が入っているときにケーブルを抜き差しすることはできませんでした。
これを行うと機器との通信が途切れたり、認識しなくなったり、パソコンがフリーズしたり、コンピュータの基板が損傷する危険がありました。
Windows PCの専用マウスとキーボードは、PCを立ち上げたままケーブルを抜いてしまうと再び挿入しても動かず、再度PCを立ち上げ直さなければなりません。
SCSIケーブルを使った機器接続でもこの傾向が強く、1990年代、パソコンがSCSI周辺機器を認識してくれるかどうかいつも神経を使っていました。
私は、SCSI機器を電源をいれたままパソコンに接続し、マザーボードを損傷させたことがあります(1996 年頃のことです)。
それほどデリケートな通信ポートだったのです。
それがUSBでは、電源を入れたままマウスやキーボードのケーブルを抜き差しができ、ケーブルを再度挿入してもパソコンは都度接続した機器を認識してくれます。
パワーマネージメントがしっかり管理された規格だと言えます。
ただ、そうだからと言ってUSBのプラグを闇雲に抜き差しするのは危険です。
HDDやメモリスティックなどでは大量のデータを保存しますからデータ転送中にUSBプラグを抜くとデータが壊れるおそれがあります。
こうした機器では、ケーブルを外すときホストとデータのやりとりをしていないことを確認する必要があります。
USBから供給できる電源は、初期のもので供給電圧が4.4VDC、供給電流は100mAでした。
USB2.0では5VDC、500mAとなりました。
これ以上の電源をUSBケーブルから供給することができません。
USB1.1規格(1996年)の特徴は、以下の通りです。
● フルスピードモードで、12Mbps(1.5Mバイト/秒)の高速転送が可能。(USB2.0では480M bps)
● USBハブを介して、ツリー状(階層状)の接続。コンピュータがすべての接続機器を管理しデータ送受信の認可を行う。
SCSIのような数珠つなぎ(デイジーチェイン)はできない。
  ツリー状(階層状)の接続を行う。最大127台の装置の接続が可能。
● ケーブル長は、最長3m(USB2.0では、5m)。
● ハブの接続は、5ヶまで可能(ハブ経由で30mまで延長可能)。
● デバイスへの電源の供給: 4.4VDC、100mA以下(USB2.0では、5V、500mA)
● 取り扱いが容易:コンピュータの電源やUSB装置の電源が入った
  ままで、USB装置の抜き差し(ホットプラグ)が可能。
  また、USBインタフェースを採用した装置なら、その種類を問わず接続が可能。
● 4種類の転送モードが機器に割り当てられる。
   1. コントロール(Control): デバイスの認識、パラメータの設定。
   2. アイソクロナス(Isochronous): 映像、音声などのリアルタイム転送。
       1ミリ秒毎に最高1,023バイトのデータを転送。最高12Mビット/秒の転送。
       再送がないために一方通行のデータ送信で確実性は保証されない。
   3. インタラプト(Interrupt): マウス、ジョイスティック操作などの低速リアルタイム転送。
       1.5Mビット/秒での転送。
   4.バルク(Bulk): プリンタ、モデムなどの不定期的大量データ転送。
       上記2つのモードを持つ機器のデータ転送が行われていないときに実行。
■ USB2.0規格
2000年4月、USBが高速になってUSB2.0となりました。
USB2.0の通信速度は480Mbpsとなり、USB1.0より40倍もの高速通信を可能にしました。
この速度は、高速通信を目的に作られたIEEE1394aをも抜き去るスピードでした。
USB2.0では、アイソクロナスモードにおいて125us単位で1,024バイトのマイクロフレーム転送を行います。
このモードで8.192MB/sの転送を実現しました。
 
以下にUSB1.xの規格から変更された主だった項目を挙げます。
バージョンアップの根底は、従来のUSB1.xの環境をそのままにして、より高速通信を可能にし信頼性を向上させたことです。
 
【USB2.0への変更点】
  ・ 転送速度: 480M bpsと高速になった。USB1.xで採用された12/1.5M bpsの転送と混在できるようにしている。
  ・ 互換性: USB1.xと互換性を維持するために、ケーブルやコネクタは変えない。
  ・ データ信号: USB1.xでは、3.3V差動信号。USB2.0では400mVの差動信号のLVDSとなった。
  ・ コントロール転送: USB1.xでは、8/16/32/64バイト。USB2.0では64バイトのみとなった。
  ・ インターラプト転送: USB1.xでは、1 〜 64バイト。USB2.0では1 〜 1024バイトとなった。
  ・ バルク転送: USB1.xでは、8/16/32/64バイト。USB2.0では512バイトとなった。
  ・ アイソクロナス転送: USB1.xでは、1 〜 1023バイト。USB2.0では1 〜 1024バイトとなった。
・ デバイスに供給する電源: 5V、500mAとなった。
 
■ 接続認識
USBの問題を強いてあげるとすると、たくさんの機器が接続できるために通信上の安定性が損なわれたり、通信スピードが遅くなったり、そして末端に接続した機器の認識が不安定になることです。
USB通信の大きな特徴の一つに、デバイスをホストがすべて管理していることがあげられます。
つまり、通信はホストを頂点としたツリー構造となって管理がトップダウンで行われています。
この特徴がよくもあり問題ともなるところです。
SCSIなどは、ホストの管理が厳しくないので機器間で直接データ伝送ができます。
IEEE1394は、SCSIの後継として開発されたので直接接続ができます。
USBは、ホストが中心になってデバイスが絶えず通信可能かどうかチェックしています。
USB1.1では、1.5usの時間をおいて通信がとぎれるとデバイスが切り離されたと解釈します。
また、デバイスが接続された際に、ホストは127個のアドレスの一つを割り振ります。
USBで送信されるデータはパケットになっていて、このパケットにホストが割り振ったアドレスが付けられて送り出されます。
アドレスに指定されたデバイスは、そのパケットを受け取ります。
 
USBが出回った当初(1990年代終わり)は、デバイス間のコンフリクトがよくあったことが思い出されます。
つまり、二種類のマウスを接続すると一方のマウスが動かなくなったり、マウスを外して別のポートに接続すると動かなくなったりと、認識に問題がありました。
今(2006年〜)はかなり改善されて、そうしたプリミティブな問題は少なくなりました。 2018年ではまず接続に不安を覚えるということはなくなりました。
 
このように、USBはパーソナルユースではとても使いやすい反面、基幹ユースではお奨めできません。
基幹ユースでのネットワークは、イーサネットに一日の長があります。
 
■ USB2.0に使われるコネクタ
USB2.0には、以下に示すコネクタが使われています。
これはUSB2.0までに使われているものです。
この中でタイプAとタイプBがもっとも一般的なものです。
USB2.0までの信号線はとてもシンプルであり、標準USBは4本の信号線しか使っていません。
2本がツイストペアの差動信号線で、残りの2本が機器に供給する電源ラインです。
極めてシンプルな結線にもかかわらず高速通信が行われているのは驚きです
USB経由で供給される電源は、5V、500mAであるので2.5Wの電力を機器へ供給することができます。
ハードディスクドライブやプリンタは、2.5W以上の電源を必要とするので、この場合はこの電源ラインからではなく別途電源を供給する必要があります。
 

 

■ USB3.0規格 (2018.11.24)(2019.01.20追記)
USBの大成功を受けて、より高速通信を行う規格としてUSB3.0 version 1.0が2008年11月17日に発表され、2009年より製品が発売されました。
USB3.0は、USB2.0の10倍強の5Gbpsの通信速度を持っています。
ケーブル長は、5mから3mと短くなったものの、ギガイーサネットよりもIEEE1394よりも高速通信ができる性能です。
 
これらの製品は、当初は、パソコン側では拡張ボードとして供給され、周辺機器をこれに接続していました。PCのマザーボードでは標準装備されていなかったのです。
2010年7月の時点では、USB3.0対応のHDD、PCI-Expressカード、PCカード(ExpressCardスロット)、およびケーブルが市販されてました。
USB3.0は、ハードディスクのデータ通信として使われました。
2011年以降、パソコンに標準装備されるようになりました。
 
【USB3.0コネクタ】
USB3.0はデータ転送の高速度化を実現するために、新しいコネクタを作ったため9ピンもしくは10ピンとなりました。
USBタイプCでは24ピンとなっています。
右図のコネクタは、Micro-Bコネクタの上位互換性を持ったUSB3.0対応のものです。
このコネクタは、USB2.0で使われていたMicro-Bコネクタに新たに5ピンの信号線をもうけて、ここに2対4線の送信線を走らせています。
1ピンから5ピンは従来のUSB2.0で使われているピン配列です。
2018年時点のパソコンを見ると、使いやすさの観点から、タイプAが装備されています。
ユーザがUSB2.0規格の周辺装置を持っていて混在して使うことが多いことを想定しているのだと考えます。
 
これらのピン配置からわかるように、USB3.0では送信と受信を別々に行う全二重通信となっています。
USB2.0までの通信線は、1対(2線)による半二重通信でした。
電源供給ポートは、従来の1番ピンと5番ピンで行っています。
供給できる電源はUSB2.0の500mA(5V)から、900mA(5V)と80%アップしました。
USB3.0ではケーブルの長さに規定はなく、送信帯域が確保できるケーブルであればどんな長さでも良いとされています。
しかし、メーカが保証して販売するケーブルは最大3mです。
これはUSB2.0の5mよりも短い長さです。
通信周波数が高いので、あまり長くはできないものと思われます。
 
【USB3.0タイプAのコネクタ】
タイプAのコネクタは、USB2.0の時代から最もよく使われて来たものなので、USB3.0になってもコネクタ形状を同じにして使い勝手の良い工夫がほどこされました。
USB3.0タイプAプラグは、右に示すような先端部がUSB2.0の規格になっていて、後端部がUSB3.0で追加された端子となっています。
USB2.0の機器との接続では、プラグの先端部だけが接触するようになります。
USB3.0タイプAプラグは、奥に配置された5つのコネクタピンはバネ板状になっていて挿入先の平板ピンと接触する構造になっています。
挿入される側のレセプタクルの端子構造は、プラグ側と逆になっていて奥の部位(USA2.0のピン)がバネ板構造のピンで接触するようになっています。USB2.0まで使われていた4ピンとUSB3.0で追加された5ピンの前後の配列は干渉しないように相互にずらして配置されています。
USBタイプAは、安価に作ってあるので接触性と耐久性が不安です。
衝撃を受ける装置や耐久性を求められる試験装置には、それらを考慮したカバーのあるプラグ/レセプタクルも市販されています。
 
以下にUSB2.0とUSB3.0以降のコネクタ一覧を示します。
一番有名でよく使われているのは、タイプAです。
これはパソコンに標準で装備されています。
タイプBはプリンタや周辺装置に使われていました。
ミニA、B、マイクロA、Bは、小型周辺機器、例えば小型HDDや携帯電話端末用として使われています。
ミニタイプもマイクロタイプも、同じように小型なのに二つのタイプ、計4種類が登場したのは理解に苦しみます。
これまでよく使われてきたコネクタは、デジタルカメラなどに使われたミニAタイプとスマホ用のマイクロBです。

 

 

 
USB3.1から採用されたUSB Type-Cコネクタは、従来のコネクタ形状と異なり24ピンでリバーシブル(挿す方向性を厭わない)構造となっています。
24ピンとピン数が多くなったため並列転送でき、10G bpsの高速転送が可能になっています。
USB Type-Cコネクタの詳細は、【USB-C】を参照して下さい。
 
■ USB3.1とUSB Type-Cケーブル(2018.11.18追記)
USB Type-Cケーブルの使用については注意が必要です。
USB3.1、およびUSB3.2では、USB Type-Cケーブルの持つ仕様性能を全て活かし切ってはいません。
同じケーブルを採用したThnderbolt3はすべて満足していています。
従って、同じケーブルを使っているとは言え、USB3.1/3.2仕様とThunderbolt3仕様は同じものではありません。
詳細は、【Thunderbolt3とUSB3.1】を参照下さい。
 
 
 

 

■  通信速度の規定(2022.05.15追記)
USBでは、USB1.1、USB2.0、USB3.0とバージョンアップするに伴い以下の通信速度となり、それぞれ呼称が与えられました。
 
USB1.1
・ Low - Speed(LSモード)、1.5M bps: 通信速度を要求しないマウスやキーボーとの低速度通信規定。
Full - Speed(FSモード)、12M bps プリンタやイメージスキャナーなど大量データで通信速度を要求する装置の規定。
 
USB2.0
・ High - Speed(HSモード)、480M bps: USB2.0で新設された40倍の通信速度を持つ規定。
                 ハードディスクドライブの読み書きやUSBカメラの録画に威力を発揮した。
 
USB3.0
・ Super - Speed(SSモード)、5G bps: USB3.0で新設されたHSモードより10倍速い5G bpsの通信速度。
                 USB3.2ではさらに高速通信規格を設けたので、これをGen 1 x1 1と呼ぶ。
 
USB3.1 / 3.2
・ Super - SpeedPlus(SS+ モード)、10G bps、20G bps: USB3.1で新設された通信速度は10G bpsであり、
                 USB3.2では2レーンを使うため2倍の20G bpsとした。
                 これらをGen 1 x 2(1レーンで10G bps)、Gen 2 x 1(2レーンで10G bps)、
                 Gen 2 x 2(2レーンで20G bps)と呼ぶ。
 
 
【2012.08のメモ - USB3.0の普及】 (2012.18記)(2019.01.20記)
USB3.0は、2008 年に策定されました。4 年を経た2012年夏の時点で販売されていたパソコンには2系統程度のUSB3.0が装備され、残りはUSB2.0が装備されていました。客観的に見て、USB3.0が急速に普及しているとは言いがたい現状でした。
こうしてみる限り、USBはマウスやキーボード、プロテクトキー、プリンタなどの低速度通信の機器に使われていて、高速対応はビデオ機器や大容量高速データ通信機器など限られたもので十分なようです。
Macintosh(MacBook、iMac、Mac Pro、Mac Studio)では、高速通信の機器に彼らが採用したサンダーボルトを使う方向に舵を切っているようです。
2018年11 月の時点では、2012年当時と状況は変わらず、USB3.0の普及は、大容量のNAS型HDD接続やUSBメモリ、ビデオカメラのデータ送信用に使われていて、スマホの充電に使われているマイクロB コネクタや通信速度を気にしない関連機器に対しては、USB2.0のコネクタが依然採用され続けています。

■ USB4 規格 (2022.05.07)(2023.10.23追記)
USB4は、2019年8月にUSB Implementeres Forum(1995年設立)によってバージョン1.0がリリースされました。
USB4の大きな特徴は転送速度で、40 GbpsとUSB3.0の8倍、USB3.2の2倍の転送速度があります。
また電力供給も最大250Wとなり、ケーブル1本で通信と電力が供給できるようになるため配線が簡単となります。
コネクタは、USB-C が必須となりました。
USB3.0以降では、コネクターにThunderbolt3以降から使われている同じ形状のUSB-Cケーブルが使用されていて、利用者には両者の違いがわからず混乱をまねいています。
USB4ではそれを十分に考慮し、Tunderbolt3製品がUSB4で利用できる配慮がなされています。
(USB4のケーブルは、Thunderbolt3ケーブルと同じ性能のものだそうです。)
さらに、USB4のオプションをフル装備すれば、Thunderbolt4と同じになります。
逆に言うと、USB4は、Thunderbolt4規格に近づけてきてはいるものの、細かい取り決めや認証がThunderbolt4より緩いため、「USB4規格であればThunderbolt4製品」と同等と言うわけにはいきません。
 
 
 
 
 
 
 
 
 
 

 

■ USBの歴史 (2018.11.12)(2018.12.27追記)

 

上図にUSBの大まかな歴史と仕様をまとめました。
USBは、22年の歴史を持つことになります(1996 - 2018)。
USBの成功は、使いやすさとそこそこの通信速度をもっていたことだと断言できます。
2000年以降(Windows98以降)のパソコンはUSBが標準装備となり、それが長く続いて現在もパソコンの中心的な役割を果たしています。
USBは、先にも述べたように、1993年頃より、インテル、マイクロソフト、コンパック(現ヒューレット・パッカード)などの米国のコンピュータ関連企業と日本のNECによって共同研究が始められ、その後、デジタル・イクイップメント(DEC)、IBM、ノーザン・テレコム(現:ノーテルネットワークス)が加わって、3年後の1996年1月にRevision1.0として正式発表されました。
2017年では、USBの策定にあたってはNPOである「USB Implementers Forum, Inc.」(USB-IF)が管理、運営を行っています。
USB-IFは、アップル、ヒューレット・パッカード、インテル、マイクロソフト、ルネサスエレクトロニクス、STマイクロエレクトロニクスの6社が主導企業で、これに加えて合計996社が参画しています。業界標準の規格と言えましょう。
 
USB3.0の利便性】
USB3.0の高速通信で恩恵を受けるのは、デジタルムービカメラの映像通信やSSD(半導体メモリ)装置です。
デジタル映像の世界ではHDMIによる映像の送受信が普及してきていますが、USB3.0はそのHDMIの領域に踏み込んだ速度性能と言えます。
コンピュータの世界では注目すべきものと言えましょう

 

 

 

■ USB3 Vision規格 (2018.12.27 記)
USB3 Visionは、USB3.0規格の大幅な高速通信の性能にあやかって産業用カメラ(マシンビジョン)での安定した通信手段とするために詳細に取り決めたUSB3.0の産業カメラ通信(マシンビジョン)規格です。
2013年1月に北米(AIA)、欧州(EMVA)、日本(JIIA)の3つの標準化推進団体が共同で世界標準規格(G3規格)を策定しました。この規格に準拠し団体に認可された製品は右のロゴを使用することができます。
 
USB3 Visionは、物理層はUSB3.0と同じ仕様とし、以下の要求を組み上げてUSB3.0規格をさらに細かく定義しました。
・安定性:
 - 高速データ転送: マシンビジョンカメラの画像を高速で転送する。max. 350MB/s。
           転送モードはBulkモード。(Isochronousモードはオプション。)
 - 高信頼性のデータ転送:マシンビジョン用のためデータ欠損は許されない。
 - 多様な画像サイズの安定転送: 低画素で高速サンプリングするものから超高画素での取得などの応用。
 - 通信時のエラー発生からの安定した復帰: エラーを判断して速やかに復帰して動作を続行させる。
 
・拡張性
 - 将来への拡張勢
 
・堅牢性(コネクタ結線)
 - 確実なコネクティング:USBコネクタはルーズで抜けやすいため安易に外れないサポートネジを追加する。
 - 機器への確実な固定
 
 
USB3 Vision規格は、USB3.0の規格を元にしているので、USB3.1、USB3.2規格には準じておらず、USB-Cコネクタは使用対象外となります。

 

 
 
【D端子(D-Terminal)】(パラレル通信) (2007.04.16)(2009.11.07追記)(2019.01.20追記)
D端子は、家庭用ビデオ機器に使われている(使われていた)映像端子です。
コネクタの形が「D」の文字に似ていることからD型端子と呼ばれました。
Digitalの意味のD端子という誤解を招きやすい名前のためにデジタル転送と思われがちですが、アナログ信号です。
従って、デジタル機器でD端子で出力する場合は、デジタル信号をいったんアナログ信号に直して受像機器に送っていることになります。
端子は、7ピンx2段の合計14ピンで構成されています。
内訳は、輝度信号(Y信号)と色差信号(Pb、Pr)の3つの同軸ライン(6信号ライン)と3系統の制御信号(識別信号)(3信号ライン)、それに一つのホットプラグ検出信号(2信号ライン)の合わせて11信号ラインとなります。
14ピンのうち、残りの3ピンは予備です。識別信号(3系統)にはグランドラインが割り当てられていないため、外被(FG = フレームグランド)がグランドになっています。
コネクタの形状からわかるように、BNCやRCAのような同軸シールド構造をとっておらず、コネクタ部での電磁シールド効果が崩れています(ケーブルには同軸ケーブルが使われています)。
このコネクタは、当然ノイズに対する配慮が弱いので長いケーブルでは信号が鈍ったりノイズが入りやすくなります。
しかしBNCコネクタやRCAコネクタより取り回しが良いので、短い長さの映像信号ケーブルとしてこのタイプが普及しました。
 
D端子は、JETA(社団法人 電子情報技術産業協会)によって映像コネクタ及び映像ケーブルの仕様が決められました。
これは日本独自の規格であり、世界標準にはなっていません。 日本で販売されている現在(2007年)のテレビにはすべて取り付けられています。
以下の表示にあるD1〜D5は、放送局用のデジタルVTRの規格(D1-VTR〜D5-VTR)と混同しがちになりますけれども、両者の関連性はありません。
表示
映像フォーマット
D1
480i
D2
480i、480p
D3
480i、480p、1080i
D4
480i、480p、1080i、720p
D5
480i、480p、1080i、720p、1080p
i はインターレース、p はプログレッシブを示す。
映像フォーマットの数値は、画像の縦の画素数を示す。
右上の写真は、我が家のテレビ(2009年)についているD端子です。
D端子の外観はD1からD5まですべて同じなので、どの映像フォーマットに対応しているかわかりません。
したがって、テレビにはどの映像フォーマットに対応しているかが明記されています。
我が家のテレビは、D4まで対応しているので1080iか720pのハイビジョン映像をこの端子を通して見ることができます。
従って、このテレビでは1080pは見られないことになります。
プレイステーション3のような高級ゲーム機は、D5の出力を持っていてハイビジョン画質を提供しています。
D端子は、以下に述べるHDMI端子の出現とともにその存在が危ぶまれています。 (2018年12月のテレビ受像器にはD端子はなくHDMI端子です。)
その理由は、D端子ではアナログ信号のためセキュリティのプロテクトがかけられなかったり、画質が思うように向上しないという問題があるからです。
また、高品位のアナログ出力を持つ映像機器の販売を中止するという動きも活発になってきているため、D端子を装備せずにHDMI端子の受像機器になっていく可能性も大きくなっています。
2018年、我が家の新しいテレビにはD端子はありません。
 
【HDMI(High-Definition Multimedia Interface】(パラレル通信)(2007.04.16)(2009.10.02)(2018.11.22追記)
HDMIは、家電向けAV機器向けに開発されたデジタル通信の規格です。
2018年では最も普及したハイビジョン用ビデオ端子として家庭用テレビやPCに装着されています。
HDMIは、日立、東芝、松下、ソニー、フィリップス、トムソン、Silicon Image社7社が中心となって2002年12月に規格化されました。 HDMIは、コンピュータディスプレイ接続方式のDVI(Digital Visual Interface)規格をベースに、音声伝送機能や著作権保護機能、色差伝送機能を加えて拡張したものです。
この端子が装着されたAV機器は、2006年以降から出荷され始めたので、それ以前のAV機器では装着されていないものが多く、2006年12月ソニーのPlayStation3(家庭用ゲーム機)で標準装備されて話題となりました。
 
HDMIは、ケーブル1本で最大5Gbpsの伝送速度を持っていて、非圧縮のデジタルハイビジョンの伝送が可能です。
HDMIで採用された高速データ通信方式は、TMDS(Transition Minimized Differential Signaling)というデジタル伝送技術であり、1990年代後半にコンピュータ用液晶モニタに接続する映像信号(DVI)に採用されました。
この信号伝送技術が、HDMIにも採用されました。
この技術は差動信号を使っているので長い距離を伝送させるのは不得意であり、1.5m〜3m程度のケーブルが中心となっています。
2007年には10m長のケーブルが発売されました。
HDMIでは、信号ピンが19ピンあります。
その内訳は、TMDSの映像信号線が3対(6線)とそれぞれのシールド線(3線)、クロック信号が1対(2線)とそのシールド線、それに電源と制御線などから構成されています。
3つの映像信号線は、RGBの映像信号であり、これをクロック信号に合わせてデジタル信号で伝送する仕組みになっています。
 
■ TMDS(Transition Minimized Differential Signaling)
TMDSは、高速デジタル通信を目的としたシリアルデータ通信です。
アナログビデオ端子(上写真)とデジタルビデオ端子(DVI)(下写真)

デスクトップパソコンではデジタルビデオ端子が普及しているが、ノートパソコンの付属モニタ出力や液晶プロジェクタの端子には依然として上図のアナログ端子が使われている。

信号は差動信号を使っています。
TMDSは、シリコンイメージ社(Silicon Image Inc.)が開発したもので、デジタル映像分野で採用されてきました。
 
これは、同社がフラットパネル・ディスプレイとビデオカードを接続する目的で開発し、PanelLinkという名前で1997年に開発したのに始まります。
この技術がデジタル映像信号であるDVIに採用されて、HDMIにも採用されました。
 
TMDSと同じ高速デジタル通信を行うものに、米国National Semiconductor社が開発したLVDSがあります。
両者は、共通した部分(差動信号を採用)がいくつかありますが、TMDSは既存のCMOSデジタル素子を使った3.3V信号ルールなので、安価にできるメリットがあります。
 
この技術を使ったHDMIは、5Gbpsの通信速度を達成しているのでこの素子で1チャンネルあたり1.65G bpsの映像信号を送っていることになります。
  【DVI(Digital Visual Interface)】(パラレル通信)(2009.10.01記)(2009.10.07追記)
アナログ信号が主体であったコンピュータ画面表示を、デジタル信号に置き換えたのがDVIです。
映像信号は、何度も述べているように非常に広帯域の信号であり、コンピュータ表示画面といえども2000年ぐらいまではアナログ信号が中心で、D-sub15ピンを用いたVGA端子(アナログ信号)が圧倒的に使われていました。
これは、IBMがパソコンを発売した1981年から続いています。
2009年にあっても、液晶プロジェクタの入力端子はVGA端子が主流です。
講演会やセミナーで使う液晶プロジェクターは1,280x1,024画素程度なので、アナログ映像端子でも十分なのかも知れません。
ちなみに、2009年の時点で市販されている1,920 x 1,020画素相当の液晶プロジェクタの入力端子にはDVI端子はなく、代わりにHDMI端子がつけられています。
液晶プロジェクタに使われている他の入力端子としては、旧来のVGA端子(コンピュータ接続用)とRCA端子(アナログビデオ端子)、それにS端子(アナログビデオ端子)が装備されています。
ノートパソコンに装備されている外部接続用モニタ端子は、2009年にあってもハイエンドモデルでない限りほとんどVGA端子となっています。
ノートパソコンでDVI端子を最初に標準装備したのはアップル社の製品です。
2002年に発売されたPowerBook G4でDVI端子が標準装備されました。
アップル社のマッキントッシュは、グラフィック関係のユーザが多く、マッキントッシュ専用のフラットディスプ(Cinema Display、1999年)の入力端子にすでにDVIが装備されていました。
アップルは、これをDVIと呼ばず、アップル独自にアレンジしたADC = Apple Display Connectorと呼んでいました。
このデジタル端子をノートパソコンにもいち早くDVI端子を標準装備したものと思われます。
アップルは、2002年以降、彼らが発売するノートパソコン(PowerBook、MacBook、MacBook Pro、MacBook Air)のすべてにDVI端子(サイズを小さくしたmicro DVIやmini DVI端子)を装備させています。(この端子もApple社が薦めるThunderbotを開発して軌道に乗せるとPCの主要ポートをThunderboltにして変換ケーブルやUSB-Cハブでディスプレイ端子を供給するようになりました。)(2018.11.22追記)
 
■ DVI規格
DVIは、液晶ディスプレーの登場とともにデジタル信号伝送が本格化した1994年に規格化され、1998年にTMDS技術を使ったDVI端子のモニタが市販化されました。
DVI規格そのものは、DDWG(Digital Display Working Group)というコンソーシアムによって1999年4月にRev.1.0として制定されました。
DDWGは、インテル(Intel)、シリコンイメージ(Silicon Image)、コンパック(Compaq、現HP)、富士通、HP(Hewlett-Packard)、IBM、NECが参加した団体です。
DVIの根幹技術は、シリコンイメージ社が開発したTMDS(Panel Link)でした。
この技術は、2002年12月に開発されたHDMIにも使われました。
DVIでは、テレビ放送のような画素数と映像周波数の縛りがないので画素数と周波数の制限は規定の帯域内で自由に選ぶことができました。
 
DVIを採用した液晶モニタは、高画素で鮮明な画像を提供しました。
DVIでは映像送信に圧縮技術を使っていません。
1画素RGB各8ビット、計24ビットデータをそのまま伝送しています。
この映像信号にコントロール信号(クロック)がついていて、この信号に従って1画素ずつ表示しています。
高画素表示を行う場合は、帯域が不足するのでもう1系統のRGBラインを足してデュアルモードで表示しています。
シングルモードでの画像は、1,280 x 1,024画素@85Hz、もしくは、1,920 x 1,080画素@60Hzまでの伝送が可能です。
それ以上の画像に関してはデュアルモードとなり、非圧縮データで最大3,840 x 2,400画素@33Hzまでのデジタル転送を行っています。
DVI規格では、同軸ケーブルを使っていないのでケーブル長を長くすることができず、最大5mと決められています。
 
■ DVI端子(パラレル通信)
DVI端子は、上右の下図に示すように24ピンのデジタル信号ラインとC1〜C5のアナログ信号出力で構成されています。
デスクトップパソコンには画像ボードにこの端子が装備されています。
本体(マザーボード)は、従来のアナログVGA端子が装備されています。
このVGA端子は表示能力が低く非常時に使うモニタ出力です。
液晶プロジェクタの場合、ほとんどがDVI端子を備えていないので、DVI端子にあるアナログ信号を使うため変換アダプタを使って接続します。
 
変換アダプタは、DVI端子に割り当てられているアナログ信号のC1〜C5ピンを使っています。
これはアナログ信号ですから、当然画質も悪く高画素のものは送れません。
DVIのデジタル信号は、TMDS技術が採用され、赤、緑、青の3信号成分とクロック信号で構成されています。
信号はツイストペアケーブルによる差動信号が使われています。
赤、緑、青の各信号はコネクタピンの左端の縦列2つを使っています。
すなわち、赤が1と2ピン、緑が9と10ピン、青が17と18ピンに割り振られています。各信号ピンの隣のピン(3、11、19ピン)はそれぞれのシールドピンに割り当てられています。
シールドピンを挟んだ隣の2ピンはデュアルモードで使う際の赤(20、21)、緑(4、5)、青(12、13)が割り当てられています。
デュアルモードの信号線のためのシールドピンは、シングルモードで使われているシールドピン(3、11、19ピン)と共用になっています
■ DisplayPort(パラレル通信)
DVI端子は、デスクトップ型PCの画像ボードには標準で装備されるようになったものの、ノートパソコンでは十分な普及を見るに至っていません。
その理由としては、DVIコネクタが大きすぎること、コストが割高であること、HDMIによって存在価値が薄くなっていること、より高画素表示に対応する規格の必要性が出てきたこと、などがあげられます。
 
そうした要望に応えるために、DisplayPortが作られました。
DisplayPortは、2006年5月にVESA(Video Electronics Standards Association)によって1.0が発表されました。
DisplayPortの大きな特徴は、データ転送速度が10.8G bpsと高速になり、USB程度の大きさのコネクタで15mの伝送ができるようになったことです。
また、この規格の使用にあたっては特別なライセンス料やロイヤリティが発生しません。
 
DisplayPortは、DVIやHDMIと互換性があり、変換アダプタの使用により映像信号を送受信することができます。
しかし、DisplayPortにはアナログ信号出力がないので、従来のVGA端子を持ったディスプレーや液晶プロジェクタには接続できません。DisplayPortの信号線は20ピンで構成されています。
内訳は、レーンと呼ばれる4系統の信号線とグランド線 [ 4 x (2+1) = 12線 ] 、予備信号線が1系統とグランド線 [ 2+1= 3線 ] 、ホットプラグ線、DCパワー線、グランド線3線の合計20ピンとなっています。
 
この規格は、2009年の時点で、画面表示が水平1,400画素を超えるDellなどのノートパソコンの外部映像端子として装備されています。
ソニーのVAIOにはこのポートの装備はなく(DVI端子もない)、HDMIの装備に特化しています。
最近のノートPCはHDMIポートが主流のようです。(2018.11.22追記)
 
【仕様】
・転送速度: 最大 10.8G bps(2.7G bps x 4レーン)
・レーン数: 4レーン(4ペアの差動信号ライン)
・各色階調度: 最大16ビット(RGB3色)
・コネクタピン数: 20ピン
・音声信号: 転送可能
・伝送方式: 8b/10b
・ケーブル長: 最大15m(1920 x 1080画素@24ビット/画素、60Hz時)、フル帯域では2m長。
・DVI、HDMI変換伝送: 可能
・ライセンス料: 無料
      
 
【HD-SDI(High Definition - Serial Digital Interface)】(シリアル通信) (2008.06.19記)(2008.07.02追記)
HD-SDIは、1994年に開発されたデジタルハイビジョンの通信規格です。
放送局のハイビジョンカメラ、VTR、編集機器間を接続する時に使われています。
従って、我々一般のコンシューマー向けではありません。
その証拠に一般のテレビ受像機、DVDレコーダにこの端子はありません。
 
この規格に使われているケーブルのコネクタには、BNCコネクタが採用されています。
アナログ放送時代のケーブルの取り扱い勝手を踏襲したと思われます。
このケーブルを使って、1080i(1080本のインターレース)のデジタルハイビジョン信号をおよそ100m程度まで伝送することができます。
HD-SDIでは、1.485Gbpsの通信を確保しています。
 
ハイビジョンのデジタル信号をHD-SDIと言っているのに対して、通常の画像のデジタル信号(480i、480p)を、SD-SDI(Standard Definition - Serial Digital Interface)と呼んでいます。
ハイビジョン放送を始めた当初の映像機器は、たくさんの信号ケーブルを使ってパラレル転送を行っていました。
しかし、ハイビジョンカメラを普及させていく場合、ケーブル配線やケーブル自体のコスト高が懸念され、1992年4月にシンプルなケーブル配線によるデジタルハイビジョン信号規格が着手されました。
この時に指導的役割を果たしたのが放送技術開発協議会(BTA)で、2年後の1994年4月にHD-SDIの規格制定がなされました。
この規格が米国の映画テレビ技術者協会(SMPTE = Society of Motion Picture and Television Engineers)で採用されて、SMPTE 292Mとして制定されました。
 
HD-SDIのケーブルを見ると、BNCプラグを用いたちょっとごつい(太い)ケーブルという印象を与えます。
5m長程度のケールでは、見た目にBNCケーブルとほとんど変わりません。
このケーブル1本でハイビジョンの信号を送ることができるのでとても重宝します。
また、このケーブル1本で100mまでの伝送が可能です。
しかし、撮影現場では長期間使用していると接触不良を起こしたり、ケーブルの曲げで特性が落ちて画質が悪くなることを心配し、カメラから機器への10m程度の伝送に使われ、それ以上の長さでは、光ファイバーに変換して中継車などに送っているようです。
HD-SDIのケーブルは、外径φ6mmほどの同軸ケーブルで高い映像周波数を送るために、従来の同軸ケーブルに比べて材質を見直しています。
運用上で頻繁に折り曲げられるケーブルは、使用とともに伝送周波数が落ちてくることも考慮に入れ、通常のBNCケーブルよりも品質の厳しいものが要求されています。
    
 
【LVDS(Low Voltage Differential Signaling)】 (2006.07.13記)(2009.02.14追記)
LVDSは、高速データ通信を目的に1994年に作られた信号規格です。
LVDSは、それまで高速データ通信として一般的であった20MHz信号の送信ができるRS-422差動信号データ通信規格を拡張し、65MHzで30m長の転送ができるようにしました。
この規格では、RS-422が±2 〜 5Vの信号電圧であったのに対し、その信号電圧の1/10、±250 〜 450mVの極めて低い電圧でデータを転送しています。
1V以下の電圧で、よくもまぁ信頼性の高い高速通信ができるものだと感心します。
それだけしっかりと電流(3.5mA)を流しています。
低い電圧でデジタル信号を作った理由は、電圧の立ち上がり時間を短くできるために高速通信に適しているためでした。
しかし、低い電圧ではノイズマージンが低く、ちょっとしたノイズでも信号を犯してしまいそうです。
LDVSでは、低い信号電圧を採用した代わりにしっかり電流を流す(3.5mA)方式とし、尚かつ、2つの信号線を対としてこのペアの信号ラインに位相が180°ずれた、すなわち反転した信号を流す方式としました。
これを差動信号(differential signaling)と言い、ノイズに強い信号とすることができました。
多くの信号線は、1つのラインに信号を乗せて、もう一方はグランドに落として使うことが多かったのですが、LDVSでは2本の線がペアとなって一つの信号を送っています。
 
■ 応用
LDVSを採用している通信規格は以下の通りです。
 
・FPD - Link: フラットパネルディスプレー
・DSI: Display Serial Interface
・RS-644:
SCSI: Ultra-2 SCSI以降
FireWire: コンピュータ通信バス
・Hyper Transport: コンピュータ通信バス
・SCI(Scalable Coherent Interface)(IEEE1596 - 1992): 高速コンピュータバス。Futurebsu(IEEE896)より発展。
シリアルATA: ハードディスク、CD/DVD装置とのコンピュータ内部接続
・RapidoIO: チップ間、もしくはボード間の高速転送規格
・SpaceWire: 欧州で規格化された航空機使用での通信規格
CameraLink: カメラ画像データ転送
・DSI(Display Serial Interface): モバイル機器の画像表示用規格
・LDI(LVDS Display Interface): LDVSを使った画像表示規格。ケーブル長は10m。2048x1536@60Hz
▲ 差動信号(Differential Signaling)
差動信号(Differeintial Signaling)の考えは、電話器ができた時代からありました。
電話信号(アナログ信号)では、音声信号を送るのに2本の電気信号線を用いて、一つには正常の音声信号を送り、もう一方には正常の音声信号と全く反対の、180°位相のずれた信号を乗せています。
2本の線には、従って、GND(グランド、接地)成分がありません。
電話器は、数km離れた交換台まで信号を送らなくてはならず、通常の方法、つまり、一方に信号を乗せてもう一方をグランドとする方法では歪みやノイズが乗りやすいという欠点があります。
電話線では、音声信号に対して600オームのインピーダンスを持つようにケーブルが作られています(600オーム平衡ケーブル)。
こうすることにより、電話線をどれだけ長くしても、理論上、電線間の抵抗(インピーダンス)が600オームに保たれるので信号の減衰を低く抑えることができます。
そうした平衡状態を作って、さらに、両方の信号線に互いに反転した信号を送ることにより、耐ノイズ性を高めることができました。
この差動信号は音響の世界にも取り入れられていて、マイクからの信号をアンプに接続する回路にも差動信号を使った平衡回路が使われました。
 
コンピュータの世界でも、耐ノイズ性の高い差動信号はいろいろな所に使われています。
例えば、マッキントッシュが使い始めたRS-422という信号や、USBケーブル、ツイストペア式のLANケーブル(10Base-T、100Base-T、1000Base-T)、SCSI、シリアルATA、PCI-Expressなどに応用されています。
差動信号に対する信号として片側ラインだけ信号を送る方式をシングルエンド(single-end)信号と言っています。 両者の言葉と平衡、不平衡は同じ対義語になります。
 
▲ ツイストペア(twisted pair)
差動信号を送るときに使うペアになった2本線は、互いに接触して撚った体裁になっています。
イーサネットケーブルもLVDSケーブルで使われているペアの信号線は撚って配線されています(右写真)。
なぜ、このように撚るのかと言うと、ノイズ成分を除去するためです(平衡ケーブルの項参照)。
電線に電流が流れると、電流の流れる進行方向に対して右ネジの法則に従って磁力線が発生します。
二本の信号線を離して配置すると、磁力線の方向が相乗されて強まります。
しかし、ツイストペアにして信号線の配置を互いに入れ違いにすると、互いに弱め合って電磁ノイズを出さなくなります。
また、外から入る電磁ノイズに対しても、2本の信号線が平行で離れていると電流として流れるようになりノイズが乗るようになります。 ツイストペアにして信号線の配置を互いに入れ違いにしておけば電流が相殺されます。
このように、信号線を撚り線にすることは、電磁ノイズを外に出さないことに加え、外からのノイズもキャンセルしやすい構造(EMI = Electro-Magnetic Interference 対策)とすることができます。
ツイストペアは、差動信号(平衡信号)だけでなく不平衡信号を送る際にもノイズ除去の観点から使われることがあります。
 
▲ LVDSの特徴
微小電圧による差動信号を使ったLVDSの高速データ通信の特徴は、以下の通りです。
・ 信号電圧が低い。信号電流が3.5mAで、終端抵抗が100Ωであるため、
  信号電圧は最大350mVである。低い電圧ではあるが、電流をしっかり流すのでノイズには強い。
・ 実際のLVDSドライバでは、1.07V - 1.41V(電位差0.24V)のパルス信号を採用している。
・ ノイズマージンは、±100mVである。
・ 信号は差動電圧信号(differential signal)である。位相の反転した
  信号をペアとして送受信するのでノイズに強い。
・ 低い電圧のため高速応答のパルスが作りやすく(電圧の昇降の時間が短い)、
  消費電力が極端に少ない。
・ データ転送速度は、ツイストペア銅線で推奨655Mビット/秒。
 
このデータ通信(LVDS)は、1990年代後半から一般的になり、スーパーコンピュータを使用する長距離高速大容量データ送信に使われ始め、高精細カメラ(メガピクセル、数枚/秒転送)の大容量高速画像通信にも使われるようになりました。
この規格は、信号だけの規格なので、LVDSを取り入れたRS-644規格が作られたり、他に SCSI やFireWireにも採用され始め、大型液晶(1400x1050画素)の画像データ通信用にも使われました。
LVDSは、計測カメラ用のデータ通信規格であるカメラリンク(CameraLink)にも採用されています。
LVDSの特徴は、先にも述べたごとく、低い電圧での高速通信が行え、電力も低く、差動信号であるため信頼性が高いことです。
但し、信号線は2本の線を撚り線にして、互いに反対方向になった信号(位相が180°ずれた差動信号)であるため、データ線の数だけのペア信号線が必要となり、グランド線が共通とならず、信号線が多くなるという欠点があります。 下の図は、LVDSのサンプル回路です。 ICメーカでは、LVDSドライバ/レシーバをICパッケージで供給しているので、そうした素子を購入して回路を作ることができます。 図では、左のドライバ部に信号が入力されると、1.41Vで互いに位相の異なる信号作り出して送り出し、これをLVDSレシーバで受け取って、再び入力信号と同レベルの信号に変換出力しています。 ドライバーとレシーバの間は、ツイストペアラインで30mまで延ばすことができ、65Mbpsの信号を送ることができます。 ツイストペアラインはレシーバの手前で100Ωで終端させておく必要があります。 これは、レシーバ部にはほとんど電流が流れないので(入力インピーダンスが高いため)、100Ωで終端させてしっかり電流を流す回路とし、信号波形が歪んだり遅れが出るのを防ぐ意味があります。
LVDS素子は、CMOS技術によって作られています。

 

         
 
 
 
【カメラリンク(CameraLink)】(パラレル通信)  (2006.06.24記)(2010.07.07追記)
 
カメラリンクは、一般的な通信規格ではなく工業計測カメラ専用のデータ通信統合規格です。
従って、パソコンに標準で装備されるものではないので、コンピュータに接続するにはカメラリンクPCIボードやPCカードをパソコンに装備してカメラリンク出力を持つ計測カメラと接続します。
工業計測カメラは、規格の統一が図りにくい製品で、メーカが独自に画像通信ケーブルやコネクタを採用して販売する傾向にあります。
多種多様なケーブルやコネクタ、それに画像を取り込む画像通信手順が個別になっていたのではユーザが困るだろうということで、米国のカメラメーカであるPULNiX社(2003年4月よりJAI PULNiX社 → 現JAI社)の働きかけで、画像ボードメーカ、ケーブル・コネクタメーカ、ICメーカらが中心となって2000年10月にCameraLinkの規格化がなされました。
 
カメラリンクは、まったく新しい規格というわけではなく、従来、カメラメーカが個々に採用してきた最新技術をとりまとめて規格化し、メーカ(カメラメーカ、画像ボードメーカ、ケーブルメーカ)間での製品の互換性を良くしようというとしたのが規格化の動きでした。
 
■ LVDSとチャンネルリンク
カメラリンクでは、転送信号にLVDSを採用しています。
LVDSでは、2本の信号線(1対)で1つのデータを送るために、つまり、グランドを共通にした信号線ではないために、パラレル(並列)でデータを送る場合には、信号線の数が多くなるのが欠点でした。
この問題を解決するために、パラレル信号を高速シリアル信号に変換する技術(チャンネルリンク = Channel Link)を採用して、伝送ケーブルの本数を少なくしました。
チャンネルリンクは、米国National Semiconductor社が開発した技術です。
このチャンネルリンクとRS-644(LVDS)の技術をベースにして、信号形態のみならずコネクタ・ケーブルのハーネスにいたるまでを規格化し、互換性を持たせるようにしました。
 
■ 概略仕様
以下にカメラリンクの概略仕様を示します。
・ 伝送データは、28ビットのパラレル信号を8ビット単位で一つにまとめた3対のシリアルデータ(A/B/Cポート)と、 4ビットステータスデータの1対に変換している。 データはこれらを合わせて4対となる。
 
・ 上で述べた4対のシリアルデータに、1対のクロックデータを
  加えた5対のデータ線で構成される。
・ ケーブルは複数本の使用が可能となっており、データ数の多い
  画像通信では2本、もしくは3本での使用が可能。
・ クロックは、66MHz(最高85MHz)が基本。パラレル伝送の
  ためトータルデータレートは、
  1.93GHz(2.35GHz max.)= 1.93Gbps(2.35Gbps max.)
  となる。
  この転送速度は、28ビットのパラレル信号を 基本としたBase
  モードの速度であり、複数のケーブルを 使ったMediumモードや
  Fullモードの場合には、より高速転送を可能にする。
・ Base/Medium/Full モード
  Baseモードでは、24bitデータと4bitのステータスデータの転送
  を行い、Mediumモードでは倍の48bitデータを送り、Fullモード
  ではさらに16bitデータを追加した64bitデータを転送する。
・ コネクタは、3M社の26ピンコネクタ(MDR-26)を採用。また、
  カメラの小型化に伴い、小さいコネクタ(ミニCLに従ったSDR)が規格化された。
 ・ ケーブル長さは、推奨で最長10m。

 

上図に、カメラリンクの構成を示します。
ケーブルは1本での使用が基本で、2本まで使うことができます。
1本のケーブル使用がBaseコンフィギュレーションと呼ばれるものです。
データを高速で送るには2本同時に使います。 この時は、Mediumコンフィギュレーションか、Fullコンフィギュレーションとなります。   Medium/Fullコンフィギュレーションで使用する場合は、ケーブルを2本同時に使用することももちろん、カメラ側とフレームグラバ側双方にそのモードが装備されていることが必要となります。 ケーブルのコネクタは、両方とも3M社のMDR 26ピンオスコネクタになっていて、方向性がなくどちらを接続しても問題ありません。 ただ、Fullコンフィギュレーション仕様のカメラをBaseコンフィギュレーションで使う場合は、正しくBaseのレセプタクルに挿入する必要があり、フレームグラバ側にもBaseのレセプタクルに結線する必要があります。   カメラやフレームグラバには、単に形状が同じレセプタクルが二つついているだけのものがあり、Baseであることの明記がなされていないので、ケーブルを間違って結線することがよくあります。 上の図を見ると、Baseコンフィギュレーション部にカメラコントロールやシリアル通信機能がつけられていてMedium/Fullではデータ転送ポートだけなので、間違った結線をすると正しい通信ができなくなります。   カメラリンクでは、図を見ればわかるようにカメラへの電源は供給されておらずデータ通信だけです。カメラ電源は別途用意しなければなりません。
     
 
【PoCL(Power over CameraLink)規格】 (パラレル通信) (2006.09.02記)(2009.08.14追記)
PoCLは、上で述べたカメラリンクの派生規格でカメラリンク自体にカメラに供給する電源を組み込んだ規格です。
これは、2004年8月に規格化の動きが始まり、2007年2月に規格化されました。
カメラリンクは米国のFAカメラ(計測用カメラ)メーカが中心となって策定しましたが、PoCL規格は、日本のメーカが中心となって策定されました。
「Factory Automation(FA)分野で使われているカメラは、日本の場合、NTSC(RS170)規格に準じたアナログ信号による機器が圧倒的なシェアを持ち、米国で主流になってきていたデジタルカメラへの移行は簡単には進んでいませんでした。
これはとりもなおさず、アナログカメラが安価であったこと、30コマ/秒での撮影、ストロボなどを使った同期撮影、データ取得、画像処理体系が整ってしまったこと(デジタルで30コマ/秒は高価であったこと)が理由として挙げられます。
 
しかし、2007年頃より、デジタルカメラのデータの転送速度や処理装置の性能が追いついてくると、デジタル化への動きが加速されて行きました。
デジタル化へ移行する場合、CameraLink規格は魅力あるものでした。
しかし、アナログ信号でシステムを構築してきたユーザやメーカにとっては考慮しなければならない問題がありました。
すなわち、カメラリンクでは、カメラへ供給する電源が別になっていて、小さくなったカメラにカメラリンクコネクタとは別の電源コネクタを配置しなければなりませんでした。
その点、アナログカメラには、ソニーが採用したヒロセの12ピンコネクタがついていて、ここには電源、ビデオ信号(アナログ信号)、制御信号などが組み込まれていて、1本のケーブルをカメラに接続するだけで配線ができました。
従って、もしカメラリンクにカメラ電源を入れ込むことができ、カメラ寸法も従来のアナログカメラと同じサイズであるならばデジタルカメラへの移行をスムーズに行うことができます。
スペースに制約が多いFA検査装置では、カメラサイズが一定に保たれることは大きな魅力です。
こうした素朴な要求がこの規格を生み出しました。
 
また、カメラから送られてくる映像データは、ユーザが開発した画像処理ソフトによって処理されるために、画像処理装置は現行のものを流用したい要求があります。つまり、カメラをデジタルに代えた時、そのデータを受ける画像ボードが旧来のものと互換がとれるようなPCIバスボードである必要がありました。さらに、デジタル化される画像は、旧来のアナログ画像以上の画質を持つことが求められました。
新しいカメラリンクの規格PoCLは、2004年、FAユーザが画像ボードメーカ(マイクロ・テクニカ社)へ寄せられた要望から始まったと言われています。規格化への道のりは、カメラメーカである(株)シーアイエスが中心となって、2005年6月に国内のボランティアワーキンググループ(Working Group Japan = WG-jpn)8社が賛同し活動を開始しました。WG-jpnには、画像ボードメーカ(マイクロ・テクニカ、アバールデータ、スタック)、カメラメーカ(シーアイエス、東芝テリー、日立国際電気)、ケーブルメーカ(住友スリーエム)、画像処理装置メーカ(ファースト)が参加しました。
この規格は、現時点(2009年)でもっとも新しい規格です。

 

 

 

    
 
【Light Peak(ライトピーク)、Thunderbolt(サンダーボルト)】
(シリアル通信) (2010.07.18記)(2012.08.24追記)
 
Light Peakは、2009年にインテル社が開発した光ファイバーを使った通信方式です。
この技術を元にして、アップル社とインテルがサンダーボルト(Thunderbolt)という通信規格を開発し、2011年にMacintosh(MacBook Pro、iMac)に採用しています。
Light Peakは、2010年時点では桁違いの高速通信(10 Gbps 〜)と長距離通信(100m)が可能とし、旧来の通信方式(IEEE1394、USB、SATA、HDMI)を凌駕するポテンシャルをもちました。
実際のところ、昨今のコンピュータ通信規格は多種多様なものが現れて、PCの側面や背面にはたくさんの通信ポートが取り付けられています。
こうした多種のポートを減らす目的として、Light Peak技術が使われる潜在能力を持ち合わせています。
このような趨勢は、1990年代の終わりに登場したUSBがRS232Cやセントロニクス、SCSIの役目を終えさせたのと良く似ています。
 
Light Peakは、発表後、2012年の時点で実際の製品が現れていません
その能力の高さ故に大いに注目されていることは間違いなく、近い将来製品の発表があると思われます。
この技術から生まれたThunderbolt(サンダーボルト)は、2011年2月に仕様が作られ、同年の終わりにアップル社のiMac、MacBookProに採用されました。Light Peakが光通信技術を用いて100 Gbps を目指していましたが、高価になることと電源供給も行いたいことから銅線方式に切り替えThunderboltとして開発が続けられました。
 
■特徴
Light Peakの大きな特徴は、光ファイバーを使った10Gbps〜100Gbpsの超高速度の通信速度にあります。
これは、USB3.0に比べて2倍から20倍の性能を持っています。
2009年の開発時点で10Gbpsの性能が出ていて、今後10年に渡って100Gbpsを目標に開発が続けられるそうです。
ただ、100 Gbpsの速度は、PCI-Expressの規格を越える速度でありこの速度が達成されてもPCに接続する手だてがありません。
また、10 Gbpsの通信速度を満足できるバスは、現在のところPCI-Express 16xしかないのが実情であり、このバスは主にモニタ用の画像ボードにあてがわれているので、2スロット分のPCI-Express 16xをもつPCが必要です。
Light Peakが採用する光ファイバーは、コア径125um(外径0.5mm)という太いファイバーを使うために、小さいコア径を持つタイプのような位置合わせに神経を使う必要はなく、簡単な(安価な)ファイバーコネクタを使用できます。
このファイバーで最大100mの通信が可能です。 使用するレーザは特に説明がありませんが、赤〜赤外を使用するようです。
通信は、送信と受信の2本の通信線を使っていて、チップにはそれが2系統(4本)装備されています。
コネクタは、USB、IEEE1394と似たような形状にして簡単な操作で着脱できるようです(この形状はまだ正式な発表はないようです。2010.07.18時点)。
Light Peak は、IEEE1394のようにディジーチェインで機器間を接続できます。
 
■ ファイバー
ファイバーは、プラチックファイバーを採用しています。
プラスチックファイバーは安価なので、Light Peakの供給には大いなる追い風だと考えられています。
2010年3月には、旭硝子がLight Peak用に「FONTEX」という商品名で出荷を始めるとアナウンスしました。
このプラスチックファイバーは、従来のアクリル樹脂と違ってフッ素系プラスチック(CYTOP = サイトップ)であるため、λ = 650 〜 1300nm の透明度を確保しています。
アクリルは、C(炭素) - H(水素)結合成分があり、これがこの波長領域の透明度を不十分にしている原因と言われてきました。
旭硝子のFONTEXは、石英光ファイバーに比べ柔軟性が非常に高く、50,000回の5mmの曲げに対応しているそうです。
このファイバーは、クラッドがダブルクラッド式となっているので曲げを強くしても光の漏れが少なく良好な信号伝送が行えるそうです。
伝送距離100mで10Gビット/秒を越える高速信号伝送が可能です。
 
   
 
【Thunderbolt(サンダーボルト)】 (2012.08.24記) (2018.11.12追記) (2022.05.09追記)
サンダーボルトは、上記のLight Peak技術をもとに銅線を利用した技術で、インテル社とアップル社が共同で開発しました。
2018年までに3世代が登場しました。
初代は2011年2月に発表され、10Gbpsの通信性能を持つもので、第二世代(Thunderbolt 2 )は2013年で20G bpsの速度をもち、第三世代(Thunderbolt 3)は2015年に登場して40G bpsの性能を持っていました。
第四世代は、2020年1月に発表されました。通信速度は40 Gbpsと増えていませんが、よりたくさんの装置を接続できケーブル長さも2mまでと長くなりました。
サンダーボルトは、光ファイバーを使った高速長距離転送が基本理念であるため、USBと性能は大きく異なっています。
Thnderbolt 1では銅線ケーブル(3m)が優先されて出荷されたものの、Thunderbolt 2とThnderbolt 3では、60m長の光ファイバーが出荷されています。
長距離伝送でこれだけの高速データ通信ができるのはThnderboltだけです。
 
初代Thunderboltは、アップル社が2011年のMacBookProに搭載しました。
MacBookPro(2011)は、以下の図に示すようなポート配列となっていて、左から以下のようになっていました。
・電源ポート、
・ギガイーサネット、
・FireWire800、
・サンダーボルト(10G bps、コネクタ形状はMini DisplayPort)、
・USB2.0ポート x2、
・ExpressCard、
・サウンド入力、
・ヘッドホン出力のポート
 
このパソコンには、HDMIやUSB3.0のポートがありません。 これらのポートが必要な場合、サンダーボルトのポートに変換ケーブルを使って、HDMI接続を行います。
当時は 、USB3.0への変換アダプタはまだ出そろっていなかったため、この場合にはExpressCardを使って変換していました。  
 
サンダーボルトは、2012年時点では通信ポートの中で最高の通信速度を持っていてFireWire800やUSB3.0の新しい技術に比べて数倍の性能を持っていました。
当時のサンダーボルトの通信ポートを装備した周辺機器は、アップルディスプレイと米国カルフォルニアPromise社のPegasusと呼ばれるRAIDストレージサーバだけでした。
Promise社は、1988年に設立されたRAIDを開発するメーカーです。
2018年では、サンダーボルトのポート(USB-C兼用)を持つアップル社Mac以外のPCが市場に出ていて、RAID HDDやシングルのHDDも出回っています。
しかしUSBのような拡がりはまだありません。
接続ケーブルや機器の価格が高めのような気がします。(2018.11.12記)
 
■ サンダーボルトの特徴(Thunderbolt 1)
・ 双方向 10 Gbps
・ 1本のケーブルで2種類のデータ転送(PCI ExpressデータとDisplayPort)
・ 6台までの周辺機器と直列接続( = Daisy chain)
・ Display Port機器との互換
・ 高精度時間同期による低い待ち時間
・ PCI expressやDisplayPort専用のプロトコルソフトウェアドライバに対応
・ 10Wまでの電源供給    
 
【Thunderbolt3(サンダーボルト3)】 (2018.11.18)(2018.12.27追記)
Thunderbolt3は、2015年6月に発表されたサンダーボルト第3世代のものです。
Thunderbolt3は、40G bpsの転送速度を持ち、USB-Cケーブルを標準ケーブルとしています。
このインタフェースは、2016年10月にApple社が発売したMacBok Pro(2016年、4年ぶりにモデルチェンジ、Touch Bar搭載)で標準装備されました。
2018年11 月時点では、MacBook Proに加え、HP OMEN、ASUS ZenBook Pro、Panasonic 「Let's Note」などがThunderbolt3を実装しています。

【Thunderbolt3とUSB3.1】 (2018.11.24記)
Thunderbolt3には、USB3.1に採用されているUSB-Cケーブルが使われています。
同じ形状のケーブルなので、両者は同じ性能ではないかと勘違いしてしまいます。
しかし、ケーブル形状は同じとは言え通信速度はThunderbolt3の方が勝っています。
Tnderbolt3では、ケーブルに高速長距離データ転送を行うための信号補正用チップが埋め込まれています。
従って、通常のUSB-Cケーブルと比べ高価であり、コネクタ部に発熱を伴います。
Thunderbolt3用のUSB Type-Cコネクタは、Thunderbolt3、USB3.1双方に使えますが、USB3.1用のUSB3.1 Type-CコネクタはThunderbolt3用としては機能しません。
USB3.1は、USBの流れを汲んでいますので操作性やマウスやキーボードなどの低速度通信機器からSSDなどのデータ通信を得意としています。
Thunderbolt3は超高速通信を得意としていて、RAID型HDDへのデータ送受信や4KUHDディスプレイを2 基サポートできる能力をもっています。
また以下の【USB-C】で述べる仕様を満足していて、特に「オルタネート」モード機能は現在のところThunderbolt3でしか採用しておらず、USB3.1のみのポートではこの恩恵は受けられません。
Thunderbolt3とUSB3.1のケーブルには、下に示すようなシンボルが描かれていて、PCポート側にもどちらの規格に対応しているかがわかるようになっています

 

【USB-C】 (2018.11.18追記)
USB-C(USB タイプC)コネクタは、2014年8月に策定されたもので、USB3.1に準拠したものです。
現時点で最速の通信速度を誇るUSBコネクタと言えます。
USB Type-Cコネクタの特徴は、以下の特徴を持っています。
 
   1.  リバーシブルコネクタ: プラグを差す方向をいとわない。
   2.  USB3.1 Gen2対応: 10G bpsの最速通信
   3. USB Power Delivery(USB PD): 最大100Wの電力供給
   4. オルタネートモード:多種類のインタフェースケーブルとして使用。 
 
従来のUSBコネクタは挿す方向性があって、挿入時に方向を確認する必要がありました。
USB-Cコネクタは方向性がなく、向きに関係なくコネクタを挿すことができます。
これは、ユーザにとって大きなメリットだと思います。
USBタイプAは20年経っても挿す方向を間違えてイライラします。
通信速度は、USB3.1 Gen2 (10G bps)の通信ができるもので、2017年に策定した20G bps の速度を持つUSB3.2ではこのケーブルが唯一のものとなります。
3番目の項目のUSB PD(USB Power Delivery)機能とは、接続された機器の電源管理を行うものです。
接続機器すべてがUSB PD に対応していて、USB-C ケーブルで接続されていると、それらの機器の消費電力をモニタしてマネージメントを行います。
USB PDでは、最大100Wまでの電力をマネージメントできるので、ディスプレイ装置、パソコン、HDD、プリンタなどがUSB-Cケールで電力供給できるようになります。
USB PDには、以下に述べる5つのプロファイルが分類されて接続された機器の電力を管理しています。
 
  1. Profile 1: 5V/2A、10W
  2. Profile 2: 5V/2A、12V/1.5A、18W
  3. Profile 3: 5V/2A、12V/3A、36W
  4. Profile 4: 5V/2A、12V、
          20 V/3A、60W
  5. Profile 5: 5V/2A、
          12V、20 V/5A、100W
 
最後の4番目の機能であるオルタネートモードとは、多くのインタフェース規格に対応する規格のことで、USBタイプC - HDMI変換ケーブルやLAN変換ケーブル、電源ケーブルなどがあります。
これらのケーブルでHDMIのビデオ信号を送ったりLAN接続、電源接続を行うことができます。
右の写真は、MacBook Pro用のUSB Type-Cハブです。
MacBook Pro のUSB-Cポート(Thunderbolt3)に差し込んで、たくさんのデータ通信ポートを扱うことができます。
USB-C(オルタネート機能を持つThunderbolt)は、これだけたくさんの機能を1つのポートで行っていることが理解できます。

【Thunderbolt 4】 (2022.04.30記)
 
Thunderbolt 4は、2020年1月にインテル社により発表されました。
2022年時点では、MacBookProを始めいくつかのWindows PCメーカーで発売されています。
Thunderbolt 3と比較して、最大帯域40 Gbps と変わらないものの、使用ケーブル長が2.0mとなり、40 Gbpsの性能が落ちません。
(Thunderbolt 3では、0.8m までのケーブル長で40 Gbpsを保証)。
また、Thunderbolt4では、複数の装置を接続しても転送速度が落ちなくなっています。
(Thunderbolt 3では、コントローラ1台あたりのダウンリンクは最大2ポートで、PCIeベースの最大転送速度は16 Gbps、4k解像度のディスプレイ転送は1台まででした。これが、Thunderbolt 4ではダウンリンクで最大4ポートの接続が可能となり、PCIeベースの最大転送速度は32 Gbps、4k解像度のディスプレイ転送は2台まで可能となりました。)
Thunderbolt4 以前のThunderbolt3は、USB4に規格、性能を移管していますので、Thunderbolt4対応ケーブルを用いてUSB4機器を接続することができます。
MacBook Proには、USBポートはなくThunderbolt4のポートが3つ搭載されるのみとなっています。
Thunderboltケーブルは、プラグ部にチップが組み込まれていて、装置接続の認識や信号補正を行っています。ケーブルは相対的に高価になりますが、USB4機器との接続が安心して行えます。
 
 
 
 
 
 
 
 
 
↑にメニューバーが現れない場合、
クリックして下さい。

 

 


      
 
■ 画像の保存  (2006.11.09記) (2010.01.14追記)
 
画像を記録することはとても大切なことの一つです。記録ができなければ再び見ることができません。
画像の保存は、多くの人が利用できるように規格化されなければなりません。
ここでは、画像の規格にはどのようなものがあるのかを考えてみたいと思います。
画像は1830年の銀塩による写真術から始まり、以来180年の歴史を持つに至っています。
画像は、以下の一覧表に示す如く大きく分けてアナログ画像とデジタル画像があります。
また、一枚の静止画写真(画像)と映画やテレビの動画像という分け方もできます。
映画は、写真ができた60年後の1890年代にカメラと映写機ができ、テレビ放送規格は1940年代にできました。
デジタル画像は、パソコンの普及とデジタルカメラの普及によって1980年代後半から出発したといえるでしょう。
画像を扱うに場合には、公共性を持たせる意味で画像の取り込みや保存に関する規格を作らなければなりません。
フィルム(銀塩)であるならば、フィルムの物理的サイズ(フィルム巾と長さ)やイメージサイズの取り決めが必要であり、テレビ放送であるならば映像信号の規格が重要となります。
こうした取り決めを徹底しないと、使用者は安心して使うことができなくなります。
デジタル画像においてもさまざまなファイルフォーマットが作られて淘汰され、現在に至っています。
ここでは、重要と思われるビデオ画像とデジタル画像の保存規格について説明します。
 

   
 
■ アナログ電子記録(動画像)
デジタル記録が行われる前までの動画像の記録は、アナログ記録が一般的でした。
アナログ記録のもっとも一般的なものは、映画フィルムです。
この他には、2011年まで運用されるアナログテレビ放送とVHSに代表されるアナログビデオテープ録画があります。
また、2000年代前半まで使われていたレーザディスク(LD)VHDもアナログ電子記録でした。
2000年までの電子画像記録といえば、アナログビデオ信号による録画が一般的でした。
なぜアナログ記録が一般的であったのかは、テレビ放送の歴史を紐解いて見れば明白です。
デジタル画像やデジタル放送は、つい最近(2000年以降)のことなのです。
デジタル記録では、アナログ記録とは異なる高速デジタル処理が必要で、それを行う情報処理はアナログ記録よりも高速なものを使わなくてはなりませんでした。
つまり、デジタル記録は、高速処理のできるコンピュータが普及するまで足踏みをしていたのです。
そして、何よりも高速でデジタル録画できる安価な媒体がなかったのです。
【NTSC】
NTSC信号は、これまでにも何度も述べてきたように、アナログ信号の代名詞にもなっているビデオ(テレビ)信号規格です。
米国では、通信規格としても認定され、RS-170として登録されています。
この信号を記録するには、市販のVTR(ビデオテープレコーダ)、VCR(ビデオカセットレコーダ)を使います。
最近(2000年代始めまで)のコンピュータには、このアナログ信号を入力して、希望するデジタルフォーマットに変換して保存できるものも増えています。
放送用は、2011年7月で運用が終わりデジタル放送になります。
【ハイビジョン(High Definition Television / HDTV)】
NTSC信号による映像よりも高品位なテレビ放送として登場してきたのが、ハイビジョンアナログ信号です。
高品位テレビとも呼ばれました。
NHKが主導して大きな役割を果たしてきました。
この規格ができたときに、これを家庭でどのように保存するかが問題になりました。
当時(1994年)は、2200TV本相当x1125走査線@30フレーム/秒もの広帯域情報を記録する装置など市販品として出回っていなかったのです。
それでも、業務用には高価ながらハイビジョン用ビデオテープレコーダが市販されていました。
当時は、高品位のテレビジョン画像を限られた通信帯域内で送ることが困難であったので、送信時に圧縮して送るMUSE(Multiple Sub-Nyquist-Sampling Encoding system)という技術が開発されました。
この技術は、しかし、高速で動くスポーツ報道では画像に残像が残るという問題を抱えました。
 
■ アナログハイビジョン規格
・ 走査線数: 1,125本(有効走査線数は1,035本。デジタルハイビジョンは1,080本)
・ 水平画素数: 2,200画素(有効画素数は、1,920画素。デジタルハイビジョンも1,920画素)
         1画素の大きさは、正方格子ではない。(デジタルハイビジョンは正方格子)
・ アスペクト: 16:9 (従来のNTSC画面のアスペクトは4:3)
・ 撮像/再生速度: 60.00 フィールド/秒 (59.94フィールド/秒ではない。デジタルハイビジョンは59.94フィールド/秒)
・ 圧縮方式: MUSE(Multiple Sub-Nyquist-Sampling Encoding system)
        衛星放送の信号帯域(27MHz)の中に乗せる映像信号は、1/3の9MHzが限界であるため、圧縮は1/4とされた。
 
ハイビジョン放送は、大きく分けてアナログとデジタルの2種類があり、NHKが開発したアナログハイビジョンは1989年に実験放送が開始され、実用化放送を経て2007年9月で放送を中止しました。
デジタルハイビジョンは、衛星放送と地上波デジタルの2方式があります。
 
■ アナログ電子記録(静止画像)
アナログの静止画像というと銀塩フィルムを思い浮かべますが、磁気記録を使ってアナログ静止画像を記録していた装置があります。
ソニーが1981年に開発したマビカ(Mavica)です。このカメラは、現在のデジタルカメラの先駆けとなったもので、銀塩フィルムを使わないCCD固体撮像素子を使ったスティル(still)カメラでした。
この画像の記録に2インチフロッピーディスクが使われ、FM変調によるアナログ録画を行っていました。
再生は、通常のテレビにビデオ端子を接続してビデオ映像を送りました。
画質は570x490画素であり、ひいき目に見ても良好ではありませんでした。
アナログのビデオ静止画像は、フィルム画像に見慣れたものにとって評価の対象外でした。
フィルムカメラマンや放送業界の人たちは、当時、冷ややかにこのカメラを見ていました。
しかし、これが来るべきデジタルカメラ時代の黎明と呼ぶべき装置だったのです。
 
 
■ デジタル記録(静止画)
デジタル画像は、基本的には画像を画素という区割りを設けてそこに濃度(色)情報を記述するという方式を取っています。
その記述方式がファイルフォーマットという形になって、さまざまのものが提案されて標準化されました。
ここでは、代表的な画像ファイルフォーマットについて特徴を述べます。
画像のデジタル化はいろいろな用途から喚起されてフォーマットの提案がなされてきました。
それらは互いに競争しながら淘汰され、現在に至っています。
デジタル画像の前には、銀塩写真のアナログ画像があり、アナログ画像をお手本としながらデジタル画像が作られてきました。
また、映画やテレビを中心とした動画像を扱う分野と、写真を扱う静止画の分野ではデジタル化への取り組みが異なっています。
動画像では、NTSCのアナログ画像が根底にあり、それに加えてハイビジョン画像がありました。
したがって、動画像では、1秒間に30フレームで再生し1画面を640x480画素で構成することが標準となりました。
これが、VGA(Video Graphics Array)です。
静止画像では、ライカサイズの画質(イメージサイズ:36mmx24mm、解像力:約50本/mm)が一つの指標となりました。
こうした旧来のアナログ画像をお手本として、その画像をデジタイズする試みがなされ、以下に示すようなデジタル画像フォーマットが形作られていきました。
コンピュータから生み出された画像は、無線放送規格の制約がないので、画素数や濃度、表示速度の制限がなく自由に決めることができました。
 
 
【TIFF】(Tagged Image File Format)(てぃふ) (2010.01.21追記)
TIFFは、静止画像として一般的なファイルフォーマット形式を整えた最初のものです。
TIFFができるまでの画像は、各自バラバラで生データフォーマットによる画像保存がなされていました。
TIFFは、Tagged Image File Format の略です。
このフォーマットは、高密度ビットマップ画像(ラスター形式)で、解像度の設定、モードコントロールを可能にしていました。
TIFF画像は、最初にモノ画像(白黒画像)ができて、フルカラー(約1670万色)への対応がはかられてきました。
TIFFファイルが開発されたのは1986年で、スキャナーの取り込むデータフォーマットとして米国Aldus社(DTPソフト『PageMaker』を開発した会社、現在はAdobe社に吸収)が開発しました。
これをMS-DOS が採用したことから一般的になりました
 
Windows の世界で有名なBMPフォーマット(マイクロソフトがMS-DOSで標準でサポートした画像ファイルフォーマット)とTIFFを比べてみると、BMPがどこに何を格納するかというファイル全体のレイアウトが予め決められているのに対し、TIFFではデータの格納場所が始めから決まっているのはファイルの先頭におく8バイト分のデータだけとなっています。
その部分には、TIFFファイルであることを確認するための情報と数値データの扱い方、それにファイルに格納されている情報の「一覧表」(IFD = Image File Directory)がおかれています。
この一覧表を見て、TIFFファイルを展開するアプリケーションソフトはTIFFファイルの中から必要な情報を引き出します。
TIFF ファイルは拡張性が高かったので、1990年代は様々な「方言」ができあがりました。
そこでTIFFでは、TIFFを扱うアプリケーションは最低限これだけの機能をサポートしなければならないという取り決め、つまり、「ベースライン」を設け、この他の機能は「エクステンション」としてまとめて互換性を高めようとしてきました。
「ベースライン」には、RGBモード、インデックスカラー、グレースケール、2値化白黒画像があります。
右に示した写真がTIFFファイルのサンプル画像です。(画像ブラウザソフトは、GraphicConverterを使用しています。) 画像ブラウザソフトは、ほとんどのファイルフォーマットに対応していて多種類の画像を見ることができます。 画像ブラウザで画像を開いて「情報を見る」という項目をクリックすると、画像の情報が表示され、ファイルフォーマットのタイプや画素数、色情報、ファイルサイズ、圧縮の有無などを知ることができます。   TIFFファイルを保存する場合、オプションボタンを押すと右に示すようなオプション設定ができます。 TIFFでは圧縮によるファイル設定も可能となっています。
 
TIFFに使われる画像圧縮としては、ランレングス圧縮の一種である「Pack Bits」と、G3・G4ファクシミリで知られたハフマン圧縮系の「MH = Modified Huffman 圧縮」がありました。
このほか、エクステンション(予備)として、CMYKモード、YCbCrモード、「LZW圧縮」、「JPEG圧縮」、G3・G4ファクシミリの圧縮方式と互換のある「MH圧縮」、「MR圧縮」への対応が計られました。
 
TIFFファイルはまた、一つのファイルに複数の画像を格納できるのもTIFFの大きな特徴です。
これにより動画を見ることもできました。
 
TIFFは、計測分野では大事なファイルフォーマットです。
その理由の第一は、8ビット以上の階調が保存できること、 第二の理由が、計測データがヘッダに格納でき、保管に便利なためです。
現在(2009年)でも、16ビット濃度を持つ画像の保存にはTIFFファイルが使われています。
TIFFは、EPS形式に比べてプレビュー画像の解像度が低いので再描画が速いという長所があります。
しかし、カラー TIFF は、DTP(Desk Top Publishing :コンピュータ印刷版下)には基本的には使えないので、「Photoshop」などでEPS(Encapsulated Post Script)フォーマットにコンバートする必要がありました。
 
TIFFは、その後形を変え2001年にはAdobe社がDNG(Digital Negative)を発表しました。 
 
■ ランレングス圧縮(RLE)
TIFFのエクステンションに定義された圧縮手法の一つに、ランレングス圧縮(Run Length Encoding = RLE)があります。
この圧縮法は、Run Lengthという名前にも見られるように連続する同じデータを「個数 + データ」というかたちで表す可逆圧縮です。
この圧縮は同じ色や階調が続くべた塗り画像にはとても効果的です。
この圧縮はシンプルな構造の圧縮方式であるため、写真のような複雑な画像に対しては圧縮率が高くなく、FAX送信などの線画や白味の多い画像に有効でした。
Pack BitsはRLEの一種で、情報が連続しないものでは圧縮率が逆に悪くなってしまうことを改善した可逆圧縮手法です。
RLEはTIFFの他にもBMPファイルにも採用されました。
 
■  ハフマン圧縮(Huffman Coding)
TIFFのエクステンションに定義されている別の圧縮手法に、ハフマン圧縮(Huffman Coding)があります。
これは、米国電気工学者ハフマン(David Albert Huffman:1925 - 1999)が開発した数値アルゴリズムです。
ハフマンコードと呼ばれるこの手法は、彼がマサチューセッツ工科大学の電気工学科の博士課程だった1950年に編み出し、1952年に論文として提出したものです。
この可逆圧縮手法は、ファイル全体に現れる情報を予め統計的に処理し、現れる数値の頻度の高いものから順番に若い番号を割り振り直して記述する方式です。
例えば、1024x1024画素で8ビットの白黒写真で得られた画像があるとします。
これは通常の記述では、1.049MBのファイル容量となります。
この画像が、例えば白一色の画像だったとすると、1024x1024画素の濃度情報は1つしかとりえません。
この白の情報を一番若い数値に当てて、現れないビットは記述しないことにすると、1ビットの情報で済んでしまいます。
つまり8ビットの情報が1ビットに圧縮されたことになります。
ハフマンは、情報に隠されている冗長性を組み直して効率の良い情報変換を見いだしました。
ハフマンコードは、デジタル信号処理に大いなる実力を発揮し、画像圧縮のみならずFAX通信、ハイビジョンテレビ放送、コンピュータネットワークに応用されています。
 
【BMP / DIB】(bit Map File / Device Independent Bitmap)(びーえむぴー / でぃあいびー)
BMPは、非常に有名なファイルです。 平易な画像フォーマットでWindowsのOSレベルでサポートしているため、現在でも計測分野で使われています。
BMPは、Bit Map Fileの略であり、Windowsの標準画像データ・フォーマットです。
これは、1986年に作られました。
BMPは、MS-DOSの普及で一般的になり、ワープロや表計算、データベースといったさまざまなアプリケーションでサポートされてきたため、ビジネスやWindowsコンピュータを使う世界で一番普及した画像データ形式となりました。
BMPは、読んで字の如く画素に階調(色情報)を割り当てたビットマップ(ラスター)形式の画像ファイルです。
ファイルの拡張子は、.BMPまたは.DIB、.RLEです。
Windows3.0からは、デバイス独立ビットマップ(DIB:Device Independent Bitmap)という形式に拡張されました。
したがって、 正しくはDIBファイルと言った方が良いのですが、昔からの習わしでBMPファイルと呼ぶことが多いようです。
このフォーマットでは、RGBモードで1600万色のカラーモードを持ちます。
これは、Windowsの表示・印刷のためのメタ言語(GDI)によって構成されるファイル形式です。
4ビットBMPと8ビットBMPではランレングス圧縮(RLE)が行えます。
この圧縮を行ったBMPファイルの拡張子が.RLEとなります。
 
【PICT】(Quick D Picture Format)(ぴくと)
Macintosh が開発された当初、描画方法を規格化したQuick D(くいっくどろー、マッキントッシュのグラフィックエンジン)が作り出されました。
このQuick Dを使って開発されたグラフィックフォーマットがPICT(ぴくと)と呼ばれるものです。1984年に出来上がりました。
PICTの名前は、Pictureに由来しています。
非常に有名なフォーマットでした。
QuickDで記述された画像は、ビットマップ(ラスターイメージ)だけでなく、ドロー系(ベクターデータ)画像も扱うことができます。
クリップボード、DA(ディスクアクセサリ)のスクラップブックの画像データはこのフォーマットで行っていました。
『Paint』フォーマットと違い、扱える画面像の大きさに制限がありません。
このフォーマットを厳密に述べると
 
『PICT』 → モノクロフォーマット
『PICT2』 → カラーフォーマット
 
の二種類があり初期は4ビット(8色)でしたが、後に24ビット(約670万色)になっています。
PICTの表現は豊かな反面、出力に難があり、印刷関係でのトラブルもちょくちょく発生しました。
特にPost Script とQuick Dの相性があったため、取り扱いに注意が必要でした。Windows の世界ではあまり使われませんでした。
PICTは、2009年にあっては、ドロー系のPDFファイルが主力となりPICTの機能を網羅できるようになったため、ほとんど使われない画像フォーマットとなりました。

【Bayer】(べいやー)【】(ろう) (2007.07.09追記)(2009.08.15追記)
Bayerフォーマットは、単板式カラーフィルタ内蔵カメラで作られた画像フォーマットです。
カラー画像は、本来、RGB3色の情報の組み合わせで作られるのが一般的で、カラーカメラはこの方式を採用して3色を取り込む撮像素子で画像を作っています。
Bayerフォーマットは、一枚の撮像素子でカラー画像を作るものです。
最近のデジタルカメラ、デジタル一眼レフカメラ、ムービーカメラにはほとんどBayerフォーマットの単板式撮像素子が使われています。
この撮像素子からの画像情報をそのまま保存すればBayerフォーマットとなります。
日本のカメラメーカはこれをBayerフォーマットと呼ばずに、ファイル(生データ)と呼んでいることが多いようです。
Bayerファイルは、カラー画像ファイルでありながらモノクロ濃淡像のファイルサイズしかありません。
BMP/DIBやTIFFファイルの1/3の容量となります。
Bayerファイルでは、各画素の色配列が予め決められているので、再生時にこの配列に従って各画素の色を演算して決めていきます。
1/3のファイルサイズが魅力で、この方式(もしくはファイル)のままで画像を保存することがあります。
しかしながら、JPEG画像は、1/10〜1/20程度で良好な画質が得られたり、PNGファイルであれば非可逆圧縮で1/5程度の圧縮が得られるので、これらの画像ファイルを使うことも多いようです。
ただ、JPEGやPNGは、8ビット(カラーでは24ビット)濃度情報なので、カメラが10ビットや12ビット濃度を持つときは、後処理が行いやすいようにフォーマットで保存し、カメラ専用の再生・画像処理ソフトウェアで好みの画像に作り替えることを行っています。
ファイルフォーマットによる画質の違い
TIFF、BMP、PICTのビットマップ画像。圧縮されてないので容量は大きい。しかし、画質は良好。
圧縮率10%のJPEG画像。JPEG独特のノイズ(モスキートノイズ)が現れる。文字の隙間の背景色が白く褪せたようになっている。JPEGでは圧縮率を高めると、細かい情報がなくなる。
上の10%に圧縮したJPEG画像を拡大表示したもの。圧縮による画像の荒れが目立つ。モスキートノイズが出るのは、8画素x8画素で圧縮を行うため。
圧縮ファイルであるGIFの画像を拡大表示したもの。GIF画像は可逆圧縮であり、原画像の情報欠落はない。文字などは、GIFの方がJPEGよりもきれい。同じ圧縮方式にPNGがある。GIFは特許の問題があったが、PNGにはない。
EPSファイル。EPSは数式で画像を記述している。ビットマップと違って、スケーリングしても最適な画像を表示。従って画像を拡大しても滑らかに表現する。
 
 
【GIF】(Graphics Interchange Format)(じふ)
GIFファイルは、米国パソコン通信の大手企業Compuserve社が1987年に開発したグラフィック用の画像圧縮ファイルフォーマットです。
「ジフ」と呼んでいます。
BMPがMS-DOSで採用されてから1年とたたないうちに圧縮画像が世に出たのです。
通信利用(インターネット)を考慮しているためファイルサイズが小さく、どんなマシンでも読み込めるのが特徴でした。
GIFは、本来は256色までの色数の少ない画像データを圧縮するために作られました。
256色ですから写真画像は眼中になかったことになります。
1987年当時は写真をインターネットで流すことは能だったのです。
GIFでは、基本的に画像データに含まれる色のパターンを見つけだして効率よく圧縮するため、写真のようにたくさんの色がランダムに現れる画像は苦手です。
また、可逆圧縮(もとのデータを壊さないような圧縮、Lossless Data Compression)のためファイルサイズはJPEGより小さくなりません。
ちなみにJPEG は写真用に作られた圧縮ファイルで、非可逆圧縮方式(Lossy Compression Method)のため、画質を落としてでも画像を圧縮します。
したがって、GIFフォーマットで絵などを効率よく圧縮したければできるだけ色数を少なくします。
GIFは、1990年代前半、すなわちインターネットが画像を大々的に扱うようになって一斉を風靡するようになりました。
しかし、開発元のCompuserve社が特許を主張してGIFを使うユーザに使用料を請求するようになると、GIFを使用するユーザが減り、代わって無料で使用できるPNG JPEGユーザが増えました。
GIFの特許は、2004年で切れました。
そのため、GIFを再度使うユーザが戻っては来たものの、その間にPNGやAdobe FlashなどがGIFの性能を凌駕してしまったので、かつての人気を呼ぶほどにはなっていません。
   
▲ GIFの多様な機能
GIFの一般的なファイル拡張子はgifです。
GIFには多様な機能があり、インターレースGIF、透明GIF、アニメーションGIFなどがその例でホームページで代表的な画フォーマなっいました。
ノーマルGIFフォーマットのWebでの表示は、他の画像ファイルと同様画像を構成している一番上の行の左から右へ上から下へと1画素ずつファイルに書き込まれます。
そのためダウンロードできた画素から順番に表示されるインターネットブラウザでは、この順番に表示されます。
これに対しインターレースGIFフォーマットでは、上から下へ行を順番に1行ずつ書き込むのではなく、1行目、9行目、17行目といった具合に間引いて書き込みます。
したがって早い時期に粗い画面を見ることができます。
GIFの初期バージョンは256色しか扱うことができませんでした。
これを解決すべくGIF24と呼ばれるフォーマットができてこれによってフルカラーのGIF保存が可能となりました。
 
▲ GIFが採用している圧縮方式(LZW圧縮)
GIFフォーマットの圧縮は、「LZW圧縮」方式を採用しています。
LZW圧縮は米国で開発された歴史ある可逆圧縮方式(Lossless Compression Method)で、辞書を用いた圧縮方式です。
辞書を用いるとは、画像を保存する際に、画像データをスキャニングしていき、データ配列を逐次辞書に書き込み、同じ配列がデータ内にあるときは、書き込んだ辞書を参照するという記述にしています。
この方法によってデータを圧縮しています。
この圧縮方式は、最初にこの論文を書いたイスラエルのコンピュータ科学者Abraham Lempel(1936.02.10 - )とイスラエルの電気工学者 Jacob Ziv(1931.11.27 - )の頭文字を取った「LZ」と呼ばれるものがベースとなっていました。
これは1977年に発表されました。
これを世界初のコンピュータ「ENIAC」を開発したSperry社のエンジニアTerry A. Welch(1939.01.20 - 1988.11.22、脳腫瘍で19才没、1976年Sperry Research Center入社)が改良して、1984年に現在の「LZW圧縮」を完成させました。
この圧縮アルゴリズムは、TIFFの他にモデムの圧縮プロトコルであるV.42bisや画像フォーマットのGIF、ドキュメント用のファイルフォーマットPDFとAdobe社の開発した言語であるポストスクリプト・レベル2などで使用されています。
Sperry社は、Burroughs社と合併してユニシス社(Unisys Corporation)となったため、「LZW圧縮」形式の特許(1984年6月〜2004 年6月)は同社が保有することになりました。
 
 
【JPEG】(Joint Photographic Experts Group)(じぇいぺぐ)  (2010.02.13追記)
JPEGファイルは、Joint Photographic Experts Groupの略です。
「じぇいぺぐ」と発音します。
一般的な拡張子は、jpgあるいはjpegです。
開発にあたった団体名を冠したファイル名です。JPEGは、1986年に組織が作られ、6年後の1992年に最初の規格が制定されました。 以後いくつかの変更を経て、2010年の時点では、画像フォーマットの標準規格となるくらいに普及しました。
静止画像の8割近くは、このフォーマットを使っていると言っても過言ではありません。
JPEGの登場は、画像品質を一定に保ちながらファイル容量を軽減するという相反する要求をクリアしました。
 
■ JFIF
JPEGは、JFIFとも呼ばれています。しかし、一般的にはJPEGという名前が使われています。
JFIFは、JPEG File Interchange Formatの略であり、米国のC-Cube Microsystems社が開発しました。
JFIFを書き表した同社のEric Hamiltonは、JPEG団体の責任者でもありました。
IFIFは、現在のJPEGフォーマットそのものです。
 
C-Cube社は、1988年に設立された会社で、画像データを効率よく送るための圧縮技術や専用LSIチップを開発したパイオニアでした。
彼らが開発した技術には、JPEGを初めとしてMPEGがあり、それらのデータ処理回路を盛り込んだ専用LSIを製造していました。
これらは、1990年代の非力であったパソコンの拡張ボードに採用されて画像データ圧縮の世界を切り開いて行きました。
 
JPEGは、GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。
画像は、1600万色(8ビット x 3 色 = 24ビット、16,777,216色)まで対応しています。
圧縮は、非可逆圧縮をとるため一度圧縮すると元には戻りません。
圧縮率を上げるとファイルサイズが小さくなる反面、画像品質が劣化します。
JPEGは、GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。
任意の圧縮率を選ぶことができます。
圧縮率を上げるとファイルサイズを小さくできる反面、画像品質が劣化します。
規格策定の経緯から見てもわかるように、写真などに適したフルカラー画像フォーマットで、Internet Explorerも対応したことで、2000年代初頭はGIFフォーマットに次ぐ画像フォーマットになり、2010年の時点で最も普及した画像フォーマットとなっています。
 
▲ 非可逆圧縮方式(Lossy Compression Method)
JPEGでは、ピクセルデータを8 x 8のブロックに分け、一つ一つのブロックについてDCT(Discrete Cosine Transform = 離散コサイン変換)という手法を用いてデータを符号化します。
DCTは、フーリエ変換手法の仲間に入るもので、情報を周波数という三角関数の数式に置き換えるものです。
DCTによって変換された周波数成分を分析して処理を行います。
8 x 8ピクセルのデータの中で、非常に特徴ある情報(このブロックの画像情報を決定づける変化の少ない重要な要素、周波数の低いもの)だけを最優先で残し、どうでも良い要素(= 周波数の高いもの)をふるいにかけます。
つまり周波数の高い情報(細かい画像)はここで消されてしまいます。
JPEGでは、圧縮の度合いがユーザによって決められるので、圧縮率を高めれば細かい情報がどんどんなくなり、最後は8x8( = 64画素分)が一つの情報、すなわちモザイクになってしまいます。
DCTによって変換された画像は、可逆圧縮の「ハフマン法」と「ランレングス法」を用いて圧縮されます。
周波数の高い情報は、DCTによって消されていますから非常に高い圧縮が可能になります。
DCTは、音楽ファイルのMP3やソニーの開発したATRAC、デジタルフィルタリング装置など幅広い範囲で使用されています。
 
▲ 4:2:2圧縮
JPEGには、8x8画素の空間圧縮の他に色情報を圧縮する機能もあります。
4:2:2圧縮は、テレビ映像信号の4:2:2コンポーネントデジタル信号(ITU-R BT.601)で規格化された色情報の間引き手法です。
本来は、YCbCr = 4:4:4の24ビットの色情報ですが、色差信号(Cb、Cr)成分を間引きして16ビットとしビット数をかせいでいます。
色の圧縮には、この他に4:2:0、4:1:1圧縮の設定もできます。
この場合の色情報は、それぞれ12ビット情報となります。
こうした手法により、情報の圧縮をさらに67%から50%(半分)とすることができます。
 
▲ 色情報
JPEG画像の色情報の基本は、YCbCr表示系でありRGB表示系ではありません。
YCbCr表示系の方が色の圧縮が行いやすいからです。
JPEGを開発した当初の色表示は、グレースケール、RGB、YCrCb、YMCKなどが採用されていました。
しかし、これらは厳密な取り決めがなく、この多様性が逆に互換性の点で問題になっていました。
JFIFでは、この問題を改めて色の表示にYCbCRを標準と決めて、保存する際の色成分の順序をY、Cb、Crと決めました。
さらに、この保存にも、それぞれの比率を4:4:4、4:2:2、4:2:0、4:1:1の4種類を設定することができるようにしました。
 
▲ ノーマルJPEGとプログレッシブJPEG
プログレッシブJPEGは、インタレースGIF同様通信利用を考慮して開発された画像のフォーマットです。
国際電気通信連合とISOが共同で開発しました。
インターレースGIFより画質が劣りますがファイルサイズをより小さくできます。
 
▲ JPEGの問題点
サイズの大きくなりがちなグラフィックスデータにあって、高圧縮を実現するJPEGは注目度が非常に高く、デジタルカメラの画像やパソコン通信、インターネットでは主流となりました。
しかしながら、8x8ブロックによるふるいのかけ方からもわかるように、JPEGはあくまで写真のように自然画像に対して最適化するように作られていますから、イラストや文字ではシャープなエッジ部を殺して、鈍(なま)らせてしまいます。
また、我々のように画像から計測しようとするものにとっては、エッジをなまらせるJPEGは、誤差を拡散させる何ものでもなく、計測精度を劣化させるという不具合が生じます。
計測用の画像ファイルは、TIFF、BMP、GIF、PNGが理想となります。
 
▲ JPEG  2000
JPEG 2000は、JPEGの後継ファイルフォーマットです。2000年12月に勧告されました。
しかし、2020年の時点にあってもJPEGほどの普及を見ていません。(2022.04.13追記)
この画像フォーマットは、JPEGフォーマットに比べて高画質を維持したまま圧縮率を高める改良が施されていて、JPEGの欠点であったモスキートノイズやブロックノイズ低減に成功しています。
JPEGが固定の8x8画素で圧縮するアルゴリズムであるのに対し、JPEG2000では、処理画素を可変でき、最大256x256画素を対象として圧縮を行っています。
処理対象画素が大きくなった分、圧縮率が上がり、しかもモスキートノイズが出にくくなりました。
また、JPEGが圧縮アルゴリズムに離散コサイン変換(DCT: Discrete Cosine Transform)を採用しているのに対し、JPEG 2000では、離散ウェーブレット変換 (DWT: Discrete Wavelet Transform) を採用しています。
ウェーブレットとは、さざなみのことで、圧縮プロセスを一義的に行うのでなく、画像の細かい変化に対して柔軟に対応する方式です。
このプロセスにより、ブロックノイズなどのアラがJPEGに比べて目立たなくなっています。
このように、JPEG2000はJPEGの欠点を補ったフォーマットなのですが、WindowsのOSが標準でサポートしなかったのがつまづきの発端で、2020年の時点においても普及率はかなり低く、多くのユーザは引き続きJPEGを使っています。
従って、JPEG2000フォーマットの画像をWebに載せても、ユーザのコンピュータにあるブラウザソフトでは見ることができません。
アップル社が販売しているマッキントッシュでは、MacOSでこのフォーマットを標準でサポートしているので、アップルが開発したブラウザソフト「Safari」では、この画像を見ることができます。
また、アップルの開発によるiTunesや、iPodで普及を見ているQuickTimeでもこの画像フォーマットは標準で対応しています。
スマートフォンのiPhoneでもJPEG 2000をサポートしています。Apple製品はこの規格を強く押しているように感じます。
WindowsでJPEG2000画像を見るには、プラグインをインストールする必要があります。
また、JPEG2000フォーマットは処理が難しく、画像を作るのにJPEG画像処理の5倍から6倍の処理能力(処理時間)がかかると言われています。JPEG 2000に対抗する圧縮高画質画像ファイルフォーマットとしてWindowsが押すJPEG XR(2009年6月公開)、Googleが押すWebP(2010年9月公開)があります。JPEGの後継として3つはそれぞれしのぎを削っていますが3つとも歩み寄る気配がありません。AppleはJPEG 2000と共にHEIF(High Efficiency Image File Format)を推奨し始めました。この規格も大いに受け入れられてはおらず、2022 年時点もJPEGが巾広く使われています。(2022.04.13追記)

【PNG】(Portable Network Graphics)(ぴーえぬじー、ぴんぐ)
PNGファイルは、Portable Network Graphics ファイルの略です。「ぴーえぬじー」とか「ぴんぐ」と呼んでいます。
インターネットで一般的になった1987年開発のGIF画像フォーマットには、ユニシス社の「LZW圧縮技術」が使われていて、これには特許料が絡んでおり、1994年以降、同社がその特許料の徴収を始めました。
これに伴い、「LZW圧縮技術」を使わない新しいグラフィックスファイルフォーマットの研究が始まりました。
WWWの標準化を行っているグループであるW3C(World Wide Web Consortium)が、GIFに代わるWeb用の画像として1996年に開発したのがPNGです。
PNGは、GIFが無償で使えなくなったために作り出された画像ファイルフォーマットと解釈すれば良いと思います。
PNGが開発された経緯からもわかるように、GIFが実現していたほとんどの機能を踏襲しています。
ただ、アニメGIFは踏襲できませんでした。
これは、後にAPNGというファイルフォーマットで実現しています。
扱える色は、1ビットインデックスカラーから各色16ビットRGB(合計48ビット)までと幅広く、アルファチャンネル(8ビット)機能も追加されています。アルファチャンネルが追加されると、画像情報は最大32ビットもしくは64ビットとなります。
アルファチャンネルは、3原色とは独立した補助色情報であり、画像にマスクをかける場合や透明度を指定するときに使用します。
PNGはまた、インターレース表示や背景画像の透明化にも対応し、高い可逆圧縮を可能にしています。
  ■ デフレ圧縮(Deflate) PNGフォーマットには、「デフレ圧縮」(Deflate)と呼ばれる特許の制約を受けない可逆的な圧縮アルゴリズムが使われています。
「デフレ圧縮」はアーカイバソフト「PKZIP」(1986年)や、「Zip」の作者として知られる米国のコンピュータプログラマーPhil Katz(1962.11.03 - 2000.04.14)がデザインしたアルゴリズムです。
この圧縮技術は可逆圧縮であり、LZ77とハフマン圧縮を参考にしています。 LZ77は、GIFファイルにも採用されているLZW圧縮技術の原型のもので、イスラエルコンピュータ科学者Abraham Lempel(1936 - )とJacob Ziv(1931 - )が1977年に書き表した圧縮手法です。 この圧縮手法と、ハフマンが開発した圧縮手法の良いところを取って書き上げられた圧縮手法がデフレ圧縮であり、この手法でzip圧縮ソフトウェアが作られました。 Zipは、現在のパソコンの標準となっている圧縮・解凍ソフトウェアです。 PNGの圧縮技術は、この手法を採用しています。
数ある圧縮ソフトの中でも、Zipは速度と圧縮率の高さが秀逸であり、実質ライセンスフリーでもあったことからMacOSやWindowsが採用して急速な普及を見ました。
これを開発したKatzは、天才プログラマーの名にふさわしい人物でしたが、不摂生な日常生活がたたり(慢性アルコール中毒症により)38才の若さで他界しました。 PNGの圧縮技術は、Katzの開発した圧縮手法を採用しているのです。 PNGは、非常によくできた画像ファイルフォーマットで、可逆圧縮である(圧縮しても画像の劣化が無い)ために利用価値の高いものです。
しかし、Windows98では標準でサポートしていなかったため、この画像ファイルを使用したWebでは画像を見ることができませんでした。
WindowsXPでは標準でサポートしているため問題なく見ることができるようになりました。
「Paint」と呼ばれるWindowsXPで標準でサポートしている画像レタッチアプリケーションで扱うことができます。
 
 
【Exif】(Exchangeable Image File)(いぐずぃふ)
Exifは、Exchangeable Image File の略です。
CCD、CMOSなどの固体撮像素子を使った電子スティルカメラ(デジタルカメラ)の普及にともなって、デジタル画像の統一を図るため富士フィルムが発起人となり、日本電子工業振興協会(JEIDA = Japan Electronic Industry Development Association)が1995年10月に策定しました。
いくつかの改訂を経て、2003年9月にver.2.21と改訂されました。
この規格に参画している企業は日本のデジタルカメラを作っているメーカがほとんどです。
デジタルカメラに採用されている画像フォーマットは、1998年12月、ISOでDCF(Design rule for Camera File system)という仕様が作られて、全てのデジタルカメラメーカがこれを採用するようになっています。
DCFは、メディアに保存するときのファイルシステムまでを含んだ包括的な仕様ですが、画像ファイルフォーマット自体はExif 2.2に準拠し、それにいくつか変更を加えたものとなっています。
 
Exif画像の構造は、基本的には通常のJPEG画像形式そのものであり(規格ではTIFFやHD Photoも含まれる)、その中に160x120画素JPEG圧縮サムネィルや撮影情報等のデーターをJPEGの規約に準拠した形で埋め込んだものです。
従ってJPEG形式をサポートしているインターネットブラウザー、画像ビュアー、フォトレタッチソフト等を使えば、Exif画像ファイルは通常のJPEG画像として見ることができます。
Exif画像フィアルでは、画像データそのものの他に、メタデータ(metadata)と呼ばれる撮影に関する事細かなデータも収録されています。
 
主なデータ情報は、以下の通りです。
・ ExposureTime: 露出時間。逆数値で表示。 ・ FNumber: 撮影時のレンズ絞り。 ・ ExposureProgram: マニュアル撮影、自動、絞り優先などのモード。 ・ ISOSpeedRatings: 撮像素子感度をフィルムで使われているISO感度に換算して表示。 ・ ExifVersion: ファイルのバージョン表示、Exif2.1ならば0210と表示。 ・ DateTimeOriginal: 撮影日時。カメラに時計が内蔵されていない場合はスペース。 ・ ComponentsConfiguration: 画素データ配列表示。  CompressedBitsPerPixel: JPEG圧縮率の表示。 ・ ShutterSpeedValue: 露出時間のAPEX換算値。 ・ ApertureVallue: レンズ絞りのAPEX換算値。 ・ BrightnessValue: 被写体明るさのAPEX換算値。 ・ ExposureBiasValue: 露出補正値。 ・ MaxApertureValue: レンズの最大口径比。 ・ SubjectDistance: 撮影距離、メートル表示。 ・ MeteringMode: 露出測光モード= 平均測光、中央重点測光、等の表示。 ・ LightSource: 使用光源、デーライト。タングステンなどの表示。 ・ Flash: ストロボ使用、Auto設定などの表示。 ・ FocalLength: 使用カメラレンズ焦点距離。ミリ表示。 ・ FlashpixVersion: 画像ファイルがFlashpixである場合はそのバージョン表示。 ・ ColorSpace: カラースペース。 ・ ExifImageWidth: 画像サイズ巾。 ・ ExifImageHeight: 画像サイズ高。 ・ RelatedSoundFile: 画像データに音声を録音した場合音声ファイル名を表示。 ・ FocalPlaneXResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり、撮像素子画素と必ずしも一致しない。 ・ FocalPlaneYResolution: 撮影した画像画素。部分読み出し撮影などのケースがあり、撮像素子画素と必ずしも一致しない。 ・ FocalPlaneResolutionUnit: 撮像素子の画素の単位。インチかセンチメートルの単位を表示。 ・ ExposureIndex: ISOSpeedRatingsに同じ。Kodakのみがこのタグを使用。 ・ SensingMethod: センサーチップ表示。ほとんどのカメラが"2"の単板カラーフィルタセンサー。 ・ FileSource: 画像ソース。0x03はデジタルスティルカメラ。
・ SceneType: 0x01は、直接撮影。
上の画像は、デジカメで撮影したExif画像とその画像に入っているExifデータ。 データの詳細を右に示す。
このファイルから、撮影した年月日と時間、使用したカメラ、撮影条件、ファイル容量など事細かな情報を見ることができる。
この画像は、マッキントッシュの画像アーカイブソフトウェア「Graphic Converter ver.5.9.5」を使用して閲覧した画面のコピーである。 (2006.06)
 
【DICOM】(Digital Imaging and Communications in Medicine)(だいこむ)
DICOMは、Digital Imaging and COmmunications in Medicine の略です。
医用画像(医学で使用されているX線画像、CT画像、NMR画像)を広範囲に使用するために、通信で画像を扱うことを主目的とした統合規格です。
フォーマットの拡張子は、.dcmです。
医学の世界では、X線診断の時代から(フィルム)画像が多く使われてきました。
そうした画像の多くは、病院などで保管されることが多く院外に出ることはあまりありませんでした。
しかし、CTやNMR画像、超音波画像、通常のビデオ画像、デジタルカメラによる撮影が普及しインターネットも普及するようになると、そうした画像データ及び診察所見データを共通のファイルとして保存閲覧できる要望が高まりました。
インターネットで送受信したり、CDやDVDにコピーするという需要が高まってきたのです。
DICOMは、米国放射線学会(ACR)と北米電子機器工業会(NEMA)が開発し、1993年に正式に承認されました。
日本では、1991年頃からJIRA(日本放射線機器工業会:医用画像機器業者の団体)が検討を開始し、1994年に採用を決定しました。
日本のMIPS委員会ではDICOMに日本語が対応できるように規格を更新し、1995年にはlossless(画像圧縮によっても画像の劣化を伴わない)方式も制定されました。
欧州ではCEN(欧州標準化委員会、Comite Europeen de Normalisation)が中心となって規格化を推進しました。
JIRAは、DICOM規格の実装技術の習得、相互接続試験の実施、および、利用者へのPRを目的として、JMCP95(名古屋、1995年4月)においてMIPS規格-94/DICOMデモを実施しました。
JIRAの17社、および、日本医学放射線学会の数グループの参加により、日本でもDICOM規格が確立したことを示しました。
DICOMフォーマットの根本は、共通化した「入れ子」にあります。X線装置などの診断装置で得られた画像を、できるだけ画像を劣化しないように、かつコンパクトな容量で保存し、併せて患者の履歴(カルテ)も保存して共通で閲覧しようというものです。
DICOMで保存されたファイルは専用のViewerで開けて見ることができ、必要に応じて一般の標準画像フォーマット(TIFF、PNG、JPEG、AVI、MPEGなど)に変換保存できるようになっています。
 
 
【EPS、ai】(Encapsulated Post Script)(いーぴーえす、えいあい) (2009.05.06追記)(2010.03.22追記)
EPSフォーマットは、Encapsulated Post Script フォーマットの略です。
舌を噛みそうな名前ですが、下に述べるポストスクリプト言語で構築した( = カプセルに収めた)画像ファイルフォーマットと言う意味です。
EPSFとも呼ばれています。「いーぴーえす」と発音します。
EPSは、一般的な画像フォーマットではないので馴染みが薄いかも知れません。
グラフィックソフト「Illustrator」(イラストレーター)(Adobe社、1985年〜)が扱うファイルフォーマットと言えばわかりが早いでしょうか。
また、世界的に有名になっているPDF(Portable Document Format、1993年開発)ファイルも、下地にEPSフォーマット技術を使っています。
このフォーマットの拡張子は、.eps、.aiです。
一般的な画像フォーマットであるWMF(メタファイル)や、マッキントッシュで使われていたPICTがOS用言語で描かれたファイルであるのに対し、EPSはプリンタ言語(PostScript言語)で描かれていることを大きな特徴としています。
ポストスクリプト言語は、米国アドビ(Adobe)社が開発したプリンタ言語です。
同社は、過去にはマッキントッシュ用のレタッチ画像処理ソフト「Photoshop」(1990年〜)を開発しています。
EPSファイルは、画像や文字、イラストをレイアウト形式に貼り込んで使用することを前提にしたフォーマットで、汎用性が高いのが特徴です。
このフォーマットは、精度の高い出力が可能であるため広告版下用に使われます。
Aldus Freehand や Adobe Illustrator などのソフトウェアは、PostScript(アドビ社が開発した言語) データを直接操作するのでEPSファイルとして書き出すことができます。
但し、EPS自体は、画像表示できないのでモニタにはPICTもしくはTIFFファイルにして表示させる必要があります。
円を描く場合、Windowsの「Paint」などのペイント系ソフトではギザギザの円になりますが、Adobe IllustratorなどのPost Script系の円はなめらかになります。
表示画面に合わせて最適な画像を構築するからです。
このように、Post Scriptは、使用するプリンタやモニタに合わせて精度の高い出力が可能となります。
EPSファイルは、ASCII 形式のものと、バイナリ形式の2種類があり、バイナリ形式のものはファイルサイズが半分になります。
カラーデータを4色(CMYK)分解するには、今のところEPSフォーマットでないとこの4色分解ができません。
   
右図は、Adobe社の「illustrator」(イラストレータ)という描画ソフトウェアの画面です。
図にある黄色地と緑線で示された曲線は、3点のアンカーポイント(曲線上の白丸ポイント)が指定されているだけで、それらの点は隣同士の点とどのような曲線で結ばれているかが定義されています。
その定義は、方向線(アンカーポイントから飛び出ている青色線)で決めています。
方向線の角度と長さの指定により、どのくらいの曲率でアンカーポイント同士を結べば良いかを決めています。
方向線は、マウスのドラッグで簡単に変更することができ、ドラッグしながら出来具合をチェックすることができます。
指定された曲線は、ベジェ曲線として数式化され、EPSファイル( = aiファイル)として保存されます。
ベジェ曲線は、フランスの工学者ピエール・ベジェ(Pierre Bezier: 1910 - 1999)が考案した数式曲線です。
彼は、機械工学を修めたのち自動車会社ルノーで働き、CAD、CAMの開発を手がける中でベジェ曲線を開発しました。
ベジェ曲線は、任意の曲線が数式化できるという特徴があるため、滑らかなフォントの記述として使われています。
ポストスクリプトは、こうした数式を使ってフォントを作ったり画像を定義しています。
 
 
ポストスクリプト(PS、Postscript)  (2010.03.22)
ポストスクリプト(Postscript)は、PhotoshopやIllustratorと呼ばれる画像レタッチソフトで有名な米国Adobe社が開発したプリンタのためのページ記述言語です。
同じようなものに、キャノンの「LIPS」、エプソンの「ESC/Page」、ヒューレットパッカードの「PCL」がありました。
こうした言語と、ポストスクリプトの違いは以下の通りです。
 
 ・いち早く開発された。(マッキントッシュができた1880年代)。
 ・プリンタに依存せずにテキストやグラフィックが高品質で印刷できた。
 
こうした理由から、広告やイラストを扱う分野でポストスクリプトは広く普及していきました。
1993年に登場したPDF(Portable Document Format)は、アドビ社のポストスクリプト言語をいかんなく発揮したファイルフォーマットであり、この言語技術によりパソコンによる文書統一という大改革に成功しました。
ポストスクリプト自体には、ベクターデータ( = ベジェ曲線に代表される数式によるデータ)とラスター( = ビットマップ)データの両形式、それにテキスト印刷に必要なすべてのデータ(フォントの定義、等)が標準化されていて、グレースケールやカラーも扱えるようになっています。
ポストスクリプトで興味深いのは、バイナリコードではなく、すべてテキストで記述されている点です。
これは、プリンタ自体をコンピュータとして見なしていて、プリント内容をテキストで送ってデータを受けるプリンタ側で最適なプリント出力を行うという考によっています。
この記述は、単なるオペレーションコードではなく、ハードウェアの制御や「if」などのプログラムの制御命令まで用意された完全なプログラム言語でした。
 イーサネットは、この通信のために真っ先に採用されました。
1980年代、パソコンが非力な時代になんとも広大な構想を練っていたものだと感嘆せざるを得ません。
 
【アドビ(Adobe)社】  (2010.03.22)
今では、世界的なコンピュータグラフィクス会社となったアドビ社(創始者:ジョン・ワーノック、John Warnock、1940.10 〜)も、アップルの稀代の営業マン・スティーブ・ジョブズ(Steven Paul Jobs: 1955.02 〜)に会わなければ、これだけのやっかいなビジネスを成功させ得なかったと思わせます。
「やっかいだ」、と言ったのには理由があります。
1980年当時、ジョン・ワーノックが取り組んでいた言語「ポストスクリプト」は、気ちがいじみたという表現が当てはまるほど、現実離れした複雑なソフトウェアでした。
 
ポストスクリプトは、1980年代後半のパーソナルコンピュータの性能では快適にそして高速に処理することはできませんでした。
 
それくらい当時としてはきわめて先進的で、複雑なソフトウェアだったのです。1980年代中期の多くのパーソナルコンピュータ用ソフトウェアに比べて、ポストスクリプトはけた違いに複雑なものでした。
マイクロソフト社が売り出したMS-DOSの原型であるティム・パターソン(Tim Paterson、1956〜)の書いたQDOSは、開発に半年もかかりませんでしたし、ジョナサン・サクス(Jonathan Sachs、1947〜)は、 Lotus1-2-3(表計算ソフト)を一年で完成させました。
ポール・アレン(Paul Allen、1953.01〜)とビル・ゲイツ(Bill Gates、1955.10 〜)は、マイクロソフトBASICを6週間で仕上げました。
アンディ・ハーツフェルド(Andy Hertzfeld、1953.04 〜)でさえ、 Macintosh のシステムソフトウェアにかけた時間は二年足らずだったのです。
しかし、ポストスクリプトは、完成までに20人・年もかかっているのです!
はるかに大きな処理能力を持つメインフレームの世界なら、ポストスクリプトが生まれても不思議はありません。
投資も惜しまないでしょう。
しかし、現実に成功したのは、当時まだまだ小さな会社であったアップル社とアドビ社が手がけていたパーソナルコンピュータの世界だったのです。
これは驚くべきことでした。
スティーブ・ジョブズ(アップル創始者)にとっては、自分の信念が見事に花開いた歴史的な成果だったと言えるでしょう。
ポストスクリプト言語は、マッキントッシュとアップルが開発したLaserWriter(1985年)というプリンタを接続するインタフェース言語として普及しました。
1985年当時、アップルが開発したLaserWriterは、7000ドル(170万円)もの高価なもので、コンピュータ以上の値段がしました。
レーザライタは、12MHzのクロックで動作する最高級レベルのCPU "Motorola 68000" を搭載したコンピュータそのもので、当時の8MHzで動くMacintoshよりも高性能だったのです。
そうでなければテキストで送られてくるポストスクリプト言語を解釈して、300dpiのビットマップ画像に展開してプリントアウトすることができなかったのです。
ポストスクリプトによるプリンタは、従来のプリンタの表現力を一新したものでした。
パソコンの文化 第16話 「パソコンを形作ったアプリケーションソフト(その1) - アドビ(Adobe)参照)
 
■ aiファイル:
aiファイルは、Adobe社の描画ソフト「Illustrator」用のファイル形式です。
これは、DTP(Desk Top Publishing、広告宣伝、印刷物作成)を目的としており、ドロー系のグラフィックファイルとなります。
描画をビット単位で行わずベジェ曲線を使った関数による記述を使っているため、ファイルを開いて文字や図形を拡大してもジャギー(ギザギザ)は決して現れません。(貼り付けたJPEG画像やPNG画像はこの限りではありません。)
Illustrator自体は Macintosh 育ちのソフトウェアですが、バージョン7.0(1997年)からはWindows版が発売されました。
これにより Macintosh と完全互換ができるようになりました。
 
  
■ SVG(Scalable Vector Graphics)  (2010.03.15)(2010.03.21追記)
SVGは、インターネットの普及とともに使われ出したベクターグラフィックス言語による画像フォーマットです。
拡張子はsvgです。
ベクターグラフィックスとは、数式によって表現された画像であり、ポストスクリプト言語に属する記述です。ドロー系グラフィックスと同じ意味をもちます。
ベクターグラフィックスの反対にあるのはビットマップ(ラスターグラフィックス)です。
SVGは、インターネットで使うWeb作成のXML(Extended Mark up Language) をベースとして、その言語で使えるようにSVGワーキンググループによって1998年に開発されました。
最初のバージョンであるSVG1.0は、2001年にリリースされました。
ワーキンググループには、マクロメディア、マイクロソフト、アドビシステムズ、サン・マイクロシステムズが参加しました。
この画像ファイルは、インターネットでWebを表示する際に画像ファイル容量をできるだけ小さくして、かつ希望する解像力で表示できることを目的としていました。
Webで使うアニメーションや透明化にも対応していました。
SVGは、ポストスクリプト言語と同じようにテキスト形式でファイルが構成されています。
「イラストレータ」やPDFで発展したポストスクリプト言語とインターネットで発展した言語が融合して、Web開発に使いやすいようにこの画像フォーマットが作られたようです。
従って、インターネット教材などにこのSVGモジュールを組み込んでおけば魅力あるテキストが出来上がります。
SVGは、「イラストレータ」で何の問題もなく作成することができ、SVGファイルの編集も「イラストレータ」でできます。
写真画像をSVGで保存するのは、あまり得策ではないでしょう。
写真画像は数式では表しにくいものでJPEGやPNGの方がコンパクトです。
SVGは、アニメや文字やイラストなどをWeb作成用に使うことで効果が上がるように思います。
 
 
■ Flash(フラッシュ)  (2010.03.21)(2018.11.20追記)
Flash(フラッシュ)は、Webに組み込まれた動く画像で、閲覧者の意向に沿って動くようになっています。
2000年代のFlashは革新性があってインターネットブラウザの中心ツールとして多いに発展しました。
携帯端末の時代になる2010年代からは、バッテリ消耗やセキュリティ、コンテンツの作成上に問題が指摘されはじめ、2020年末を目途に開発と配布を終了すると発表されています。
Flashは、従来の画像が静止画もしくは通り一遍のアニメ画像であったのに対し、マウスの操作でインタラクティブにアニメ表現ができました。
パソコンの主なOSで標準でサポートしインターネットブラウザにもモジュールが組み込まれているので、特別なインストールを必要とせずにフラッシュ画像を見ることができます。
Flashは、米国FutureWave Software社(1993 - 1996、San Diego)が1996年にアニメーションデータ作成ソフト「FutureSplash Animator」を開発したのに始まります。
これを同国のマクロメディア社(Macromedia、1992 - 2005、San Fransisco)が会社ごと買収し、製品の頭文字を取ってFlashとしました。
マクロメディア社は、2005年4月にAdobe社に買収されたので、以降はAdobe Flashとなりました。
Flashの拡張子は、SWFです。SWFは、Small Web Formatの略です。マクロメディア社が扱っていたときは、ShockWave Formatとしていました。
このフォーマットの特徴は、ファイルがコンパクトであることと、画像に動きがあり閲覧者の希望に応じて表示を変えることができることです。
この特徴のため、インターネットのWebで多用されるようになりました。
Flashは、開発の経緯からカメラからの画像を保存する目的で作られたのではないため、我々計測屋からの利用価値はあまりありません。
画像フォーマットがベクターフォーマットであるためカメラで撮影したビットマップ画像には不向きです。
もちろんビットマップ画像をはめ込んでフラッシュ画像とすることはできます。
フラッシュの動画ファイルとして、flv(Flash Video)があります。
このファイルは動画ファイルをコンパクトに収納することができ、YouTubeや、Googleビデオ、Yahoo!Videoなどが標準ファイルフォーマットとしたことから急速に普及しました。
2018年時点でFlashはスマートフォンのiPhoneでは見ることができません。
iPhoneの標準ブラウザの「safari」がこれをサポートしていないからです。
Apple社はiPhoneやiPadに当初(2010年)からAdobe Flashを搭載していませんでした。
携帯端末ではなく、デスクトップ及びノートパソコンで使うMacOSではサポートしていました。
Apple社が携帯端末にFlashをサポートしなかった理由として、
 
1. セキュリティの脆弱性の問題
2. バッテリの消耗が激しい
3. Webデザインが崩れてしまい思うような制作ができない
4. HTML5の代替えありこのほうが安定している
 
を挙げています。
iPhoneは最初からFlashをサポートしていませんでしたが、GoogleがAndroidで展開したFlashは完成度が不十分で不安定であったそうです。
ユーザはモバイルでFlashを使った閲覧をあきらめ、デベロッパーもサポートを止めてHTML5ベースのWebアプリ開発に移行しました。
 
■ SVGとFlash  (2010.03.22)
SVGとFLASHは、双方ともベクターグラフィックスであり似たような性質を持っています。
現在のインターネットでは、Flashの方がインタラクティブな画像を構築できるのでよく使われている感じを受けます。
しかし、Flashは、Adobe社が保有する技術であり、使用に関してはライセンスが発生します。
Flash画像を作るには、画像を作るソフトウェアを購入しなければなりません。
Flashの再生に関しては無料のViewerやプラグインが配布されており、OSに標準で装備されているので問題なく見ることができます。
このやり方(ファイルを作成するツールが有料で、見る側のツールは無料という方法)は、PDFの利用と似ています。
SVGはオープンソースなので、誰でも自由に使用することができます。
このために、携帯電話用のWebに使われたり、特に地図などには小容量ファイルで高画質のベクター画像が得られるSVGが使われているようです。
また、図面や技術資料などのデータファイルにはSVGファイルが使われることが多くなっています。
PDFが文書の保存に軸足をおいたファイルであるのに対し、SVGはよりコンパクトなWebに組み込んだ画像用ファイルとして使われる傾向にあります。
 
 
■ PSD(Photo Shop Document)  (2010.02.14)(2010.04.02追記)
PSDは、画像ソフト「フォトショップ」(PhotoShop)に使われているビットマップ形式によるファイルフォーマットです。
「ぴぃ・えす・でぃ」フォーマットとか、フォトショップ形式と呼んでいます。
PSDの源流は、フォトショップが開発された1987年にさかのぼります。
フォトショップは、レイヤー(階層)という概念をもった画像レタッチソフトであり、画像を色分解して階層状に保存したり、マスクをかけるレイヤーを追加したり、複数の画像を階層化して配置することができます。
各階層にアルファチャンネルを設定すれば、すかし画像を作ることもできます。
PSDは、印刷業界では最も標準の画像フォーマットです。
学術研究においても、医学分野で良く使われます。
白黒カメラに各種フィルターを付け替えてマルチスペクトル画像を作成する際に、フォトショップの階層画像機能は便利だからです。
PSDは、フォトショップを使った画像処理のプロセスを記憶するような形(レイヤーという階層化構造)で保存できるので、画像処理を再度やり直しする場合に便利です。
ただし、階層化によって画像情報が無尽蔵に膨らむので、膨大なファイル容量になります。
したがって、画像処理を施した最終画像はJPEGやPNG、TIFFなどに変換して、画像処理途中のものをPSDファイルで保存することを多く行っています。
パソコンの性能がフォトショップの処理についていけずに、長い時間をかけながら処理を行っていた時代を思い出します。
コンピュータの性能が向上する度に、真っ先にテストに使われたのがフォトショップによる画像処理でした。
2010年にあっては、32ビットCPUを持つパソコンでは基本的に2GB以上のファイルが扱えないので、フォトショップ画像もこのファイルサイズが一つの目安となります。
しかし64ビットCPUではファイルサイズの限界が解き放たれますので、高画質の画像処理をグイグイと行えるようになっています。
PhotoShopは、イラストレータなどとともに2003年からCS(Creative Suite)として統合的なソフトウェアとなり、「イラストレータ」など互いで作るファイルを共有しながらシームレスな環境で作業ができるようになっています。
 
【フォトショップの開発経緯】
PSDフォーマットを扱う「フォトショップ = Photoshop」は、パソコンのキラーソフトとなったものです。
キラーソフトとは、そのソフトウェアがあるためにパソコンを購入するという存在自体が絶大なソフトウェアのことを言います。
フォトショップは、1987年、米国ミシガン大学の博士課程の学生だったThomas Knollが書き上げたコードが母体となっています。
彼は、自分の持っていたMacintosh Plusで白黒画像を表示させるためのコードを書き上げました。
当時、コンピュータの画面表示は、文字の羅列が一般的であり、現在のように図や写真、動画などを表示する機能は標準で装備されていませんでした。
当時は、アップルだけが画像表示できるパソコン = マッキントッシュを発売していました。しかし、それでも当時のマッキントッシュが表示する画像は白と黒の二値化画像(線画)でありグレー表示はできませんでした。
Thomas Knollは、マッキントッシュのビットマップ表示ができるグラフィック描画に着目し、そしてその画像にグレー表示を与えるべく、画像表示ソフトを完成させたのです。
そのソフトは、「Display」と名づけられました。
「Photoshop」ができた背景には、Knoll家の人々の人となりがあります。ThomasとJohnの父親であるGlenn Knoll(1935〜2014、米国ミシガン生)は、ミシガン大学の原子力工学の教授であり、趣味が写真でした。
彼の自宅の地下室には写真現像を行う暗室が設備されていました。
Glennは専攻が原子力工学で放射物質の検出測定法の権威ですから、趣味の写真でも学術的に取り組んでいたことは容易に想像できます。
息子のThomasもJohnも父親の血を受け継いでいて、写真が大好きで地下室にこもっては現像処理やマスク焼きに熱中したそうです。
そして、彼ら3人に共通したもう一つの知的好奇心がパーソナルコンピュータでした。
最初にKnoll家にコンピュータがやってきたのは、1978年で、Johnが高校生の16才の時でした。
父親が買ってきたApple II Plus(64k RAM)に親子は夢中になったようです。
この環境の中で写真技術とパソコンが融合し、デジタル写真処理の原型ができたと言えましょう。
Knoll家にアップルがやってきた9年後の1987年に、ThomasはアップルMacintosh Plus購入しました。
このパソコンを使って父親の協力を得ながらデジタル画像処理のソフトウェアを作り上げていきました。
このソフトを見た弟のJohn Knoll(1962〜)は、Thomasが作ったソフトウェアの潜在能力を見抜きました。
彼は、当時、生まれ故郷とは反対の西海岸カルフォルニアにあるILM社 = Industrial Light and Magic社に勤務していました。
ILM社は、映画「Star Wars」で有名になったジョージ・ルーカスが設立したデジタル効果処理を行う会社で、1990年代の一連のスター・ウォーズ作品を手がける会社でした。
Johnは、デジタル画像処理に精通していたのでその分野のマーケットもよく知っていました。
Johnは、このソフトを携えて西海岸のコンピュータ関連会社に売り込みました。
その中にアップル社とアドビ社がありました。
アドビ社は、このソフトウェアを大いに気に入り1988年に販売契約をKnoll兄弟と結びました。
フォトショップの成功とポストスクリプトの成功が現在のAdobe社の礎となったのです。
 
【プラグイン(Plug in)】
弟のJohn Knollは、兄の開発した画像レタッチソフトウェアを母体としていろいろなファイルを扱ったり画像処理ができるサブソフトウェアを追加する工夫を施しました。
さらに、それら追加機能を母体と関連づけてつり下げるという手法を考え出しました。
これが「Plug-In」(プラグイン)と呼ばれるソフトモジュールです。
プラグインは、TIFFやPICT、BMPなどの画像ファイルが扱える機能であったり、各種フィルター処理などのソフトウェアモジュール、プリンタなどを接続するドライバーソフトウェアなどでした。
 
 
【Photo CD】(ふぉとしーでぃ)  (2010.03.06)(2010.04.29追記) 
Photo CDは、1990年代初めに作られたプロフェッショナルフォト分野のデジタル画像フォーマットです。
2010年にあってはほとんど使われることはなくなりましたが、写真画像の正統的なフォーマットとして写真家や広告、印刷業界で採用されて来ました。
なぜ、現在ではPhotoCDが使われなくなっているかと言うと、
  ・ 圧縮フォーマットではあったものの、可逆圧縮
    であり高解像度であったため、画像容量がJPEG
    に比べて大きかったこと、
  ・ 使用料(特許)の問題があったことと、CDに
    特化したこと( = CDに焼き付けるフォーマッ
    トであったこと)、
  ・ スキャナーが安価になって個人で写真をデジタ
    ルに落とせるようになり、有料で外部に依頼し
    なくてもよくなったこと、
  ・ 記録メディアがCDに特化していたため、DVDや
    HDD、そのとフラッシュメモリの発展に後塵を拝
    してしまったこと、
  ・ デジタルカメラが急速に普及してフィルム画像の
    需要が衰えたこと
 
などが上げられます。
PhotoCDが開発された1990年代初めは、JPEG画像も産声をあげた時期でもありました。
JPEGは無料で使用でき、しかもネットワークで簡単に送受信できたことからJPEGが写真画像の主流となり、特許料とCDへの保存に縛られたPhoto CDは時代に取り残されました。
Photo CDは、後年Picture CDという規格になります。
PictureCDではJPEGを採用しました。
Photo CDは、1992年に世界最大のフィルムメーカーであるEastman Kodak社とオランダのフィリップス社との共同で開発されたもので、アナログ写真画像をデジタル変換してCDに保存するというものでした。
この画像ファイル規格は、1990年代まで幅広く使われてきたフィルム画像をCDにデジタル記録することを骨子としていました。
(オランダのフィリップス社は、日本のソニー社とともにCD規格を立ち上げた会社です。)
従って、フィルムのネガかポジ(=リバーサル)をDPE店(フィルムの現像とプリントを行う店)に持っていくと、以下に説明する「Base」というフォーマットサイズでデジタル化しCDに焼き付けてくれました。
当時、この変換作業料金が結構高く、CD一枚分で10,000円〜20,000円だったように記憶しています。
当時は、CDのブランクディスクも高く、1枚1,000円近くしていたように記憶しています。
1992年と言えば、Windows98が出る6年前であり、マイクロソフトがまだMS-DOSを販売していた時代です。
CDはまだパーソナルコンピュータに標準装備されておらず、メガピクセルクラスのデジタルカメラなども広く世に出ていませんでした。
天文学の研究分野で100万画素クラスの冷却型のフルフレームトランスファー型CCDが使われていたり、Kodak社がニコンカメラを改造して100万画素の一眼レフデジタルカメラ(DCS)の販売を開始した時代です(光と光の記録 - レンズ編、Kodak DCS参照)。
これらのカメラは100万円以上と高価でした。フィルムスキャナーもとても高価でした。
これらに使われていた画像ファイルはTIFFでした。
 
■ PhotoCDの画像フォーマット
Photo CDの拡張子は pcdで、Image pac(イメージパック)という圧縮フォーマットを採用しています。
画像フォーマットサイズは、「Base」を基本として6種類のものがあり、容量別に1/16、1/4、1/1、4、16、64となるBase/16、Base/4、Base、4Base、16Base、64Baseがありました。
高画質の64Baseは、後年規格化されたもののため、これを特にPro PhotoCDと呼んでいました。
「Base」は、512画素 x 768画素(アスペクト比 1:1.5)のフルカラー画像で、ファイル容量は1.13MBとなります。
(単純計算では、1.180MBとなりますが、文献では1.13MBと表記されています。)
フィルムの画像サイズ(ライカサイズ)が24mm x 36mm = 1:1.5 であるために、PhotoCDの画像サイズもこのアスペクトになりました。
このBaseが基本となって、4Baseではファイルサイズが4倍となり、画素数は縦横それぞれ2倍となります。
16Baseでは16倍(画素数は4倍ずつ)になり、64Baseでは64倍(画素数は8倍)となります。
ライカサイズのフィルム画像は、2,048画素 x 3,072画素あれば情報が十分に吸い上げられるという計算でした。
今でこそ、画像ファイルはユーザが任意に縮小したり別のファイルフォーマットで自由に変換できるようになりましたが、1990年代前半において100万画素にも及ぶ画像を得るには、フィルムからスキャニングで作ることが手っ取り早い方法だったのです。
コダックはここにビジネスチャンスを見いだそうとしたのだと思います。
 
名  称
解像力
サイズ
用 途
縦x横(解像力)
画素数
MB
Base/16
128 x192
24.8 k画素
0.07
プレビュー、サムネイル
Base/4
256 x 384
98.3 k画素
0.28
インターネットWeb用
Base
512 x 768
393.2 k画素
1.13
コンピュータスクリーン
インターネットWeb用
4Base
1,024 x 1,536
1.57 M画素
4.50
高解像力TVスクリーン
16Base
2,048 x 3,072
6.29 M画素
18.0
印刷用
64Base
4,096 x 6,144
25.2 M画素
72.0
プロ印刷
 PhotoCDの規格
 
この規格ができた1990年代後半、DPEショップにフィルムネガを持ち込むと、Base/16から 16Base までの5つの画像を1セットとしてCDに焼いてくれた記憶があります。
PhotoCDでは、CD1枚に100画像を記録できる規格になっていました。
Pro PhotoCDでは4倍の大きさになるので1枚のCDに25枚の画像を保存できました。
PhotoCDの5つの画像のファイル容量を合計すると23.99MBとなります。
CD1枚に100画像分を記録すると2.4GBとなります。
これではCDに収まりません。
650MBのCDに100枚のPhotoCDを記録するとなると、1つの画像は6.5MB以下に抑えなければなりません。
16Baseの画像でも18MB相当あるのです。
従って、PhotoCDは可逆圧縮手法が使われています。
これは、Image Pacと呼ばれる形式でした。
 
■ イメージパック形式(Image pac)
PhotoCDは、16Base( = 2,048 x 3,072画素)の解像力を最大として5つの解像力で表現できる画像ファイル形式を持っています。
(Pro PhotoCDは、64Baseを含めた6種類の画像ファイル持っていました。)
イメージパックは階層化構造を持ったもので、基本画像(Base)画像から付加情報によって5種類の解像力を持つ画像を任意に呼び出すことができるものです。
この階層化技術(hierarchical storage format)は、米国のHP社(Hewlett-Packard)が提供したと言われています。
先に述べましたように、PhotoCDは5つの解像力を持つ画像形式で、最大のものは、16Baseの2,048 x 3,072画素フルカラーです。
しかし、この画像はファイル容量を単純計算すると18MBとなります。
PhotoCDでは、Baseが画像の基本となっていて、高解像度の画像を作るときには、Base画像を基本として画素間を補完して4倍の情報を持つ4Baseを作ります。
さらに高解像度を要求する場合は、4Baseの画像を元に画像情報を補完して4倍の情報を持つ16Baseを作ります。
また、Base/4とBase/16の小さい画像は、容量が少ないので直接画像ファイルを作って保存しています。
 
PhotoCDの基本画像は、Baseという512 x 768画素でありこれから高画素を構築していく方式をとっています。
一番高い解像力の画像ファイルから間引きして画素数を減らしていくのは理解しやすいものですが、Baseという比較的小さな画素で高解像度の画像を構築していくというのは魔法じみていて、ホントに高画質の画像が得られるのかと疑問に感じてしまいます。
これは、Baseを最終的に作り上げるとき、最初に16Baseの画像でデジタイジング(デジタル化)して、ここから1/16のBaseまで縮小していき、縮小する過程の履歴を残していくからこそできる方法だったのです。
縮小の履歴は、16Base相当に現状復帰できる情報であり、この情報をさらに圧縮(Huffman圧縮)して保存するというものでした。
1990年代当時は、この方法が画像をコンパクトにまとめて画像をストレスなく表示をし、なおかつ高解像度まで対応しているベストな方式であったと言えるかも知れません。
イメージパックが採用している画像圧縮は可逆圧縮であり、JPEGのような画像の劣化がありません。
(正確には、細かい所の色情報を割愛し輝度情報だけを残すので完全な可逆圧縮ではありませんが、ほとんど問題になりません。)
イメージパックの可逆圧縮方式の基本は以下の通りです。
 
  1. 最初の画像(フィルム画像)を16Base、すなわち、2,048画素 x 3,072画素のフルカラー(24ビット)で取り込む。
  2. この画像を、RGB(3原色)ではなく、YCC(輝度と色差、YUVとも言う)に変換する。
    YCCの方が色の圧縮が行いやすい。基本的にY(輝度)は重要なのでこの情報は残す。
    色差情報は、細かい部位に関しては人の目は対応しないので間引く。
    (これはテレビのカラー技術と同じ。)
  3. 原画像を1/4に変換して4Baseの画像を作る。
    この時に、変換手順を画像ファイルに残しておき、16Baseの画像を作るときの処方箋とする。
  4. さらに、4Baseを1/4に変換して「Base」画像を作る。併せてこの変換手順を画像ファイルに残す。
    「Base」画像を基本画像として保存する。これをもとに4Baseと16Baseを作り上げる。
  5. Base/4とBase/16は、画像が小さいので予め作って画像ファイルとして保存する。
  6. 64Baseは、Pro PhotoCDと呼ばれるもので、これは、最初に4,096画素 x 6,144画素を作り、
    上と同様の手法で合計6種類の画像を構築する。
 
1990年代、4Baseの画像(4.5MB)をパソコンで開けるのは至難の業でした。
画像を開けるだけで30秒程度の時間がかかっていたと記憶しています。
 
画素数だけを見ますと、Base画像は2000年当時に見られたデジタルカメラ(640画素x480画素相当)とほとんど同程度となりますが、しっかりしたフィルム画像から高性能スキャナー(PhotoCDに使われたスキャナーは千数百万円)でデジタル化した画像は、一粒一粒揃っていて(1画素のノイズが少ない)、ヌケの良いデジタル画像が得られていました。
また、単板CCD素子で得られたデジタル画像よりもカラー情報がしっかりしていました。
しかし、2010年にあっては、3000画素x2000画素相当のデジタルカメラが安価に出回るようになると、画素数に絶対的なパワーがあるので縮小して使えばフィルム画像以上の画像が得られるようになりました。
これにより取扱のよいデジタルカメラがフィルムカメラを駆逐していくことになりました。
  
■ Flashpix(フラッシュピクス)  (2010.03.15)(2010.04.29追記)
画像の階層化技術をより高めたものがFlashpixです。
この画像フォーマットは、イーストマンコダック社の主導でヒューレットパッカード社、ライブピクチャ社、マイクロソフト社の協力を得て1996年に策定されました。
Flashpixフォーマットは、ライブピクチャ社が開発したIVUEというタイル機能/マルチリゾルーション機能を踏襲しています。
Flashpixは、Exifフォーマットにも対応していて、デジタルカメラで得られたExifフォーマット画像をFlashpixに変換保存して閲覧することができます。
Flashpixは、迅速に高画質画像ファイルを閲覧したいという要求から生まれました。
元画像とは別に、96x96画素のサムネイル画像がこのフォーマットに組み込まれていて、画像の概要を事前に見られるようになっています。
それに加え、元画像を細分化して(タイル機能)、どのエリアを抜き出すかを自由に選ぶことができます。
また広い範囲を見たい場合、細かい画像を送る必要はないので間引きした画像を送って通信と表示の負荷を軽減させています(マルチリゾルーション機能)。
 
Flashpixでは、最小単位が64x64画素で管理されていて、この画素ブロック(ユニット)をタイル貼りの構造のようにして元画像が作られています。
広い範囲を見るときは、64x64画素の中の代表的な情報が繰り上げられて1画素として画像を構築するようになります。
通常の画像フォーマットは、画像をパソコンにいったん取り込んでパソコン内で拡大やスクロールを行うのが普通ですが、この方法だと大きな画像をすべて取り込まなければならないので時間がかかったり通信網やコンピュータに負荷がかかります。
この不具合を考慮して画像を細分化して格納し、自由にかつ高速に読み出すことができるのがFlashpixです。
【マルチリゾルーション機能】
Flashpixは、それ自体が物理的なファイルフォーマットを定義しているわけではなく、格納するデータや方法などのルールを定めたアーキテクチャであり、基本的にはさまざまな物理フォーマットに応用できるようになっています。
要するにJPEG画像でもTIFF画像でもFlashpixにできるということです。
Flashpixの大きな特徴は、画像を 64x64ピクセルの1つのブロックとして管理し、このブロック単位で表示や印刷などのアクセスが行われていることです。
従って、高解像力の画像を表示したり印刷する場合に、能力のないコンピュータやプリンタでは必要以上にかかる処理時間を短縮させることができます。
Flashpixでは、画像の表示を最小1/64にすることができます。
こうしたやり方は、PhotoCDと似ています。
しかし、PhotoCDが画素数やアスペクト比がBASEというきまりで固定されているのに対し、Flashpixは自由に選ぶことができます。
さらにこの自由な画像サイズをもとにして、各辺をそれぞれ1/2、1/4、1/8と4段階に下げた解像度を持たせて迅速に画像表示や出力ができるようになっています。
低いCPU 能力を持つコンピュータで画像処理を行うときは、画像を間引いて処理を行い、プリントするときに時間をかけて高い解像力でプリント出力することもできます。
これを「マルチリゾルーション = MultiResolution」機能と呼んでいます。
 
【タイリング機能】
Flashpixのもう一つの大きな特徴は、「タイリング = Tiling」機能です。
先ほど、Flashpixは64x64ピクセル四方のブロック単位で画像を管理処理していると言いましたが、このきまりを利用して、全体の画像から必要な部分だけを取り出す(これが全体を取り出さないので高速に取り出せる)機能があります。
これをタイリングといいます。
従って、画像データは最初に全体をロードしておく必要はありません。
最小限のストレスでその都度保管されているメディアからロードしながら、大きな画像データを処理することができるのです。
このタイリングとマルチリゾルーションの組み合わせはズーミングでも有効に機能します。
 
こうしたFlashpixの特徴は、絵画や書物などの貴重な過去の資産やフィルム画像を高精細画像として保管し、必要に応じて希望する大きさで再生表示する目的に有効です。
例えば図書館に所蔵している絵巻物や古文書をFlashpix画像で保存して、利用したい閲覧者にネットワークを通じてViewerで見てもらうという方法です。
原画像は、1GB(ギガバイト)にも達することがあります。
Flashpixでは、間引きして全体を小さい表示画像として送ったり、見たい部分だけの拡大画像を送ることができるので、必要最低限のデータ量で画像送信ができ表示スピードがアップします。
Flashpixを使用するにはライセンスが必要であり、Flashpix画像を見るにも専用のビュアが必要なため、Flashpixという名前が世の中に広く使われているということはないようです。

■ 圧縮ファイル - 画像によるファイル容量の違い
 
現在使われている画像ファイルは、圧縮が一般的になっています。
圧縮を行う一番の目的は、画像ファイル容量を小さくすることです。
メモリが高価であった時代やパソコンの性能が上がらなかった時代、それにインターネットの通信速度が上がらなかった時代にはとてもありがたい機能でした。
しかし、圧縮をむやみにかけると期待に添えない結果となります。
例えば、圧縮率の高い設定で保存されたJPEG画像は、見苦しい画像となります。
画像を計測手段として扱う場合には、圧縮ファイルの特徴とファイル容量の特性を十分に理解しておくことが必要だと考えます。
 
下に示す左右の写真は、左がBMP(ビットマップ)ファイルで、右がJPEGの10%まで圧縮した画像ファイルです。
画質は一目瞭然で、JPEG画像は粗さが目立ちます。
BMPファイルは、非圧縮ですから画素数がそのままファイル容量となります。
512x417画素@8ビット濃度では、以下のファイル容量となります
 
512 画素 x 417 画素 = 213.5k バイト/画面  ・・・(Rec-38)
 
【写真画像の圧縮】
下に示したJPEG画像では、10%に圧縮してますのでファイル容量は1/37の5.7kバイトです。
両者を比べると、ファイル容量がかなり小さくなった分画質が悪くなっているのが理解できます。
同じ画像でPNGファイルを作ると、155.7kバイトとなります。これは、BMPファイルの73%程度しか圧縮できません。
このことからPNG(可逆圧縮ファイル)では写真のような細かい画像に対してはあまり得意ではないことがわかります。
  【グラフィック画像】 その下に示したサンプル画像は、白と黒がはっきりした単純なパターン画像です。
この画像でファイル容量を見ますと、BMPファイルは、通常の写真画像と同じ215.0kBとなり、JPEG10%圧縮ファイルは7.4kBで1/29の圧縮になっています。
注目すべきは、PNGファイルで、2.7kBと驚異的な可逆圧縮になります。
PNGは、アニメや文字などのパターンが明確なものに対して非圧縮画像と変わらない品質で高い圧縮ができることがわかります。
JPEGは、文字やグラフィック画像の圧縮では画が汚くなります(モスキートノイズが出る)。
  【真っ白な画像】 最後に真っ白な画像について考察します。真っ白な画像でもBMPファイルは画素数分だけのファイル容量(215.0kB)となります。
JPEGは、8x8画素で画像のパターンを見ていきますので、1/(8x8) = 1/64以下にはなりません。
しかし、PNGでは1.9kBとなり1/119の圧縮になります。パターンが単純化したものほどPNGファイルの威力が発揮できると言えるでしょう
  
512x417画素8ビットの白黒写真画像のファイル容量を比較。   ・BMPファイル:215.0kB - 上左の画像。   ・TIFFファイル:215.0kB - 圧縮を行わないTIFFファイルはBMPと同じファイル容量を持つ。   ・PNGファイル:155.7kB - 可逆圧縮ファイルなので細かい写真画像の圧縮率はよくない。   ・JPEG90%圧縮ファイル: 51.9kB - ファイル容量は1/4程度になった。画質は遜色なし。   ・JPEG50%圧縮ファイル: 18.6kB - ファイル容量は1/11程度になった。画質は若干荒れている。   ・JPEG10%圧縮ファイル: 5.7kB - 上右の画像。ファイル容量は1/37。
  ・JPEG 1%圧縮ファイル: 4.0kB - ファイル容量1/53。画質はかなり荒れる。

512x417画素8ビットの白黒パターン画像のファイル容量を比較。   ・BMPファイル:     215.0kB - 上左の画像。   ・PNG圧縮ファイル:    2.7kB - 1/79の圧縮となる。画質の遜色はなし。   ・JPEG90%圧縮ファイル: 16.0kB - ファイル容量は1/13程度になった。画質は遜色なし。   ・JPEG10%圧縮ファイル: 7.4kB - ファイル容量は1/29程度になった。画質は遜色なし。   ・JPEG 1%圧縮ファイル:  5.8kB - 上右の画像。ファイル容量1/36。画質は荒れる(モスキートノイズ)  
パターンの大きな画像は、少しの圧縮率設定で大きなファイル圧縮ができる。その理由は、JPEGの8x8の圧縮アルゴリズムが、パターンのはっきりした画像では1/64にすることができるため。パターンの粗い画像はPNGが圧倒的に有利で高い圧縮率が得られる。
512x417画素8ビットの 白色画像のファイル容量比較  ・BMPファイル: 215.0kB - 左の画像。  ・PNG圧縮ファイル: 1.9kB - 1/119圧縮。  ・JPEG 90%圧縮ファイル: 3.6kB - 1/59。  ・JPEG 50%圧縮ファイル: 3.6kB - 1/59。   単純な白一色の画像でも、BMPファイルでは画素分の容量が与えられる。PNGファイルでは、1/119の圧縮を行い、JPEGより圧縮率が良い。これは、JPEGとは違う圧縮アルゴリズムを使っているため。JPEGは、8x8画素を一つのブロックとしているため、1/64程度が限界となる。単純な画像であればPNGの方が圧縮率がよい。
 
保存フォーマット
通常の画像
白黒のパターン画像
真っ白な画像
512x417画素 8ビット(256階調)
白黒
BMP
215kB
215kB
215kB
TIFF
215kB
215kB
215kB
PNG
155.7kB
2.7kB
1.9kB
JPEG 90%
51.9kB
16kB
3.6kB
JPEG 10%
5.7kB
7.4kB
3.6kB
JPEG 1%
4.0kB
5.8kB
3.6kB

画像パターンの違いによるファイル容量の違いのまとめ(表)

上の表から、JPEGは写真画像に威力を発揮し、 パターンのはっきりした画像ではPNGが効果のあることが理解できます
 
 
 
 
 
■ DNG(Digital Negative)  (2018.11.07)
DNGは、米国Adobe社が2004年に開発した画像フォーマットです。
デジタルカメラの画像が、旧来の8ビット濃度(カラー画像は8ビット x 3 = 24ビット濃度)から10ビット濃度、12ビット濃度を持つものに増えて、各カメラメーカが独自のファイルを採用し出したことから、生画像ファイルフォーマット( ファイル)を統一する目的で開発されました。
名前が「ネガティブ」としているのは、フィルムのネガ画像から来ていると思われます。
DNGは、Adobe社が手がける画像処理ソフトウェア「Photoshop」や「Lightroom」への移植性をよくして、これらのソフトでの画像処理を行いやすくしています。
DNGは、TIFF/EP(TIFFファイルを2001年に追加制定したもの)をベースにしています。
TIFF(Tag Image File Format)は、1986年にできた古いフォーマットで非圧縮です。
Aldus社が開発しAdobe社がAldus社を買収したためTIFFはAdobe社の所有物となっていました。
TIFFは、他の画像ファイルフォーマットが白黒8ビット(カラー8ビット x 3 =24ビット)であったのに対して、白黒16ビット(2バイト)、カラー48ビットを与える特色を持っていたため、Adobe社がこのTIFFフォーマットに注力したと考えます。
TIFF/EP(Tag Image File Format / Electric Photography)は、オリジナルのTIFFにデジタルカメラで普及しているExif情報を組み合わせたもので、デジタルカメラの画像フォーマットに特化したものとして2001年に制定されました。
DNGは、TIFF/EPをさらに進化させてファイルフォーマットに特化させ、8ビット画像(JPEG、PNGなど)への切り出しを容易にさせる意図があります。
 
このDNG画像ファイルは、高尚な理念で作られてはいるものの、制定から14年がたってもこれを採用しているカメラメーカーはシグマ、ライカ、ペンタックスなど数社で、大手のカメラメーカーは依然として自社のファイルを採用し続けています。
「Photoshop」や「Lightroom」への移植性が認められればこの画像ファイルは大きく飛躍していくものと思われます。
 
 
■ HEIF(High Efficiency Image File Format)  (2018.11.07)
HEIFは、2017年、アップル社が自社のOS(macOS High Sierra及びiOS11)でサポートを始めた画像ファイルフォーマットです。
JPEGよりも画質を向上させ、同等以上の品質でファイル容量が1/2に抑えられるものです。
スマホを使用した高画素写真/動画が増えたことによってファイル保存容量が切迫することになり、気運が高まりました。
この画像ファイルは、圧縮動画ファイルを手がけるMPEG機関が2013年から着手し2015年に開発を終えました。
H.265という新しい規格のコーデックを採用しています。
HEIFの実際の運用はアップル社が初めてであり、マイクロソフト社はまだサポートを決めていないので、Windowsではフリーウェアやサードパーティによる画像閲覧アプリケーションソフトウェアを利用する必要があります。
HEIFは静止画像ですが、もともとはH.265を採用した動画ファイルのHEVC(High Efficiency Video Codec)という規格が作られ、これをもとに静止画のファイルフォーマットが規格化されました。
このフォーマットが今後標準になっていくかどうかはまだわかりません。
使用人口が多いiPhoneに標準で装備されたので、認知はされていくのだろうと思います。
現状のiPhoneは、あまねく利用されているJPEGを尊重して、カメラ側の設定によって、HEIF フォーマットではなくJPEGで保存する設定にしたり、ブラウザでJPEGファイルに簡単に変換別保存できるようにしています。
 
 
 
■ デジタル記録(動画像)  (2007.4.15追記)(2010.05.19追記)   この項では、動画像について触れます。   アニメ動画の原理がそうであるように、静止画を時間軸に並べて再生すると動画像が得られます。
パソコンの動画像はこの発想で作られました。
動画像そのものは、パソコンが発達する前からありました。
テレビ放送と映画です。
これら三者は、独自の進展をしながらしかも互いに影響し合って今日に至っています(「動画像の歴史的な流れ」参照)。
映画やテレビがアナログ動画であったのに対し、パソコンの動画はデジタル画像からスタートしました。
しかし、この動画像は放送信号(NTSC、PAL規格)から少なからぬ影響を受けています。
パソコンを開発したIBM社がMSDOSコンピュータに与えた標準画面は、NTSC映像信号を規範とした640x480画素をもつVGA(Video Graphics Array)規格でした。
 
コンピュータの動画像は、静止画を連続して再生することから出発しました。
もちろん、これに音声を入れてテレビ放送のような仕組みとしました。
コンピュータの動画像は、テレビ放送よりも柔軟性を持たせることができたので、いろいろな動画像ファイルフォーマットができました。
しかし、初期のパソコンは性能がよくなかったので、テレビ放送レベルの画質と音を自由自在に操ることができませんでした。
デジタル画像・音声技術が進歩してNTSC画像に匹敵するようになると、デジタル画像がテレビ放送を引っ張るような形となりました。
両者は互いの文化を守りながら、パソコンで育った動画像ファイルと、テレビで培われたテレビ映像、それに映画で採用してきた映画フォーマットが入り組むようにして、デジタル動画像フォーマットが形作られて行きました。
 
 
【AVI】(Audio Video Interleaved Format)(えいぶいあい) (2009.05.19追記)(2022.04.19追記)
 
我々計測分野で最も良く使われている動画ファイルフォーマットがAVI(1992 年開発、1997年開発終了)です。
最も古い規格であるこのフォーマットが30年近くも一線で使われているのは驚きです。
しかも25年近くも開発元がサポートを中止してしまったにもかかわらずです。
 
AVIファイルは、Audio Video Interleaved Formatの略です。
マイクロソフト社が1992年にPC用に開発したムービーフォーマットです。
AVIは、Windows標準のDIB(Device Independent Bitmap = BMP)画像の連続したファイルシーケンス間に、WAVEデータ(音声データ)(WAVフォーマット)を挟み込んだフォーマットとして出発しました。
■ 2GBの制約 (2022.04.19追記)
Windws95で開発されたMicrosoft Internet Explorerには、AVIファイルフォーマットがインラインムービーとして利用されていました(右図)。
AVIファイルは、WAVE音声データと合体させている関係上RIFF(Resource Interchange File Format)という入れ物を利用しています。
このRIFFの入れ物が、32ビットの文字の制約を受けるため、ファイルのサイズも32ビット(4,294,967,296 = 4Gバイト)までとなります。
また、データ量にも制限が加えられ、16ビットのAVIで1Gバイトのファイル、32ビットのAVIで2Gバイトの制限となります。
ファイルを圧縮して2GB以下にしても、AVIでは再生時に非圧縮と同等のメモリ領域を確保するようで、このときに2GB容量を超えるとエラーとなり再生ができなくなってしまいます。
多くのマルチメディアデータにおいて、1GBや2GBのデータは十分な容量ですが、ことムービーに関しては、この限りではありません。
ビデオ並のクォリティで扱おうとすると、あっという間にメモリの壁に突き当たってしまいます。
2000年以降の高速度カメラでは、カメラに2GBから4GBのメモリ(時には16GB〜32GB)を搭載していて、撮影した画像をパソコンに転送してそのまま画像ファイルとして保存しようという傾向にあります。
2022年時点では、大容量のデータはRAW(各メーカー独自の原画像ファイル)で保存する傾向にあります。
RAWは、メーカーの供給するビュワーでないと再生できません。
AVIファイルは、とても古い規格で継ぎ足し継ぎ足しで存続している規格ですから、4GBのような膨大なデータでAVIファイルを作ろうとするといろいろな障害がおきます。
それに、開発元のマイクロソフト社は、1997年(13年以上も前)にサポートを中止してしまいました。
AVIでは、どうにも拡張性がないということのようです。
マイクロソフトは、1996年にAVIに変わるフォーマットとしてASF(Advanced Streaming Format)を登場させて普及をはかりますが、芳しい結果になりませんでした。
そこで、マイクロソフトは、WMV(Windows Media Video File)ファイルを2000年に登場させ、WindowsOSの標準動画ビュアであるMediaPlayerの標準フォーマットにしました。
WMVをサポートする現在のMediaPlayerでは、もちろん旧来のAVIファイルを読み込むことはできます。
しかしながら、OSやAVIそのものの規格から外れた2GB以上の容量を持つAVIファイルに対しては、ユーザーの責任において処理しなければならない問題として残っています。
そうは言っても、計測分野での動画処理では2020年時点でもAVIは圧倒的に主流です。
多くの計測用動画処理ソフトが、現在もなおAVIファイルを主ファイルフォーマットとし、MPEGやWMVファイルには対応していないのが実情です。
DVDなどの映画がMPEG2の規格で動画像を保存しだしているため、AVIを扱うのは計測を目的とした分野に限られるようになってきました。
なぜ、AVIが今も使われているのかと言うと、AVIは一枚一枚の画像を分離して保存できるからです。
しかし、AVIのコーデックには、MPEGや、H.264などの時間圧縮方式も出てきたので(この方が、圧縮率が高くて画質が良い)、こうしたコーデックを持ったAVIを計測に使う場合には、従来の常識である「AVIは一枚一枚が独立した画像」という考えができなくなり、画像処理上では問題になることがあります。
 
【AVIファイルの圧縮 - 圧縮コーデック】
コーデックはCodecと書き、Compression & Decompression の略です。
圧縮と復調という意味です。
AVIでは、データの圧縮メカニズムがシステム(OS)そのものと関係なく独立しているので、圧縮コーデックドライバがインストールされていれば、いろいろなタイプの圧縮が可能です。
逆に、適切なドライバがインストールされていないと圧縮されたデータが読み出せず映像部が再現されません。
使用している圧縮コーデックに関する情報は、ビデオストリームのヘッダに4文字のIDのかたちで記録され、再生時に指定されたドライバを読み出して映像を再現するようになっています。
コーデックで有名なものでは、インテルが開発したIndeo(1992年〜)、SuperMac社が開発したCinepak(1992年〜)、マイクロソフト社が開発したMicrosoft Video1(1992年〜)、MotionJPEG圧縮、MPEG圧縮、H.264圧縮などがあります。
右の表に、各種のコーデックで保存したAVIファイルとその容量の比較を示しました。
表の一番左はTIFFの連番ファイルで21枚の合計です。
非圧縮AVIはTIFFファイルを寄せ集めただけのものですからファイル容量は同じです。
一番右のQuickTimeはAVIファイルではありませんが、2010年時点で一番圧縮がよくて画質がよいので参考までに比較に入れました。
AVIは今や古いタイプのフォーマットで、コンテナという異名を持つほど、つまり、単なる箱というほどになってしまいました。
その箱にいろいろなコーデック(Codec)を仕掛けてAVIファイルとしています。
ですから、ひとくちにAVIと言ってもどのコーデックで格納したかをしっかりと把握しておく必要があります。
 
【2GB以上のファイルを扱えるAVI2.0】
マイクロソフト社がサポートを中止したAVIフォーマットの箱だけを活かして、現在でも使えるようにした規格がAVI2.0です。
この規格には、マイクロソフト社自体は関与していません。
これは、1996年に画像ボードメーカのMatrox社が中心になって、OpenDML(Open Digital Media Language)という技術を作り、この技術を元にしてOpenDML AVI(AVI2.0)を作りました。
このAVIでは、2GB以上のファイルが扱えるようになり、また、MotionJPEG動画をAVIフォーマットで再生できるようにしました。
SonyのVAIOは、システムに「DVgate」と呼ばれる動画編集ソフトが同梱されていて、これで2GBを越えるAVIファイルを作ることができます。
また、動画像キャプチャーボードを扱っているカノープス社もAVI2.0に保存できる動画像保存ソフトウェアを作っています。
Adobe社の動画編集ソフトウェア「Premier」では、ver.6.0からOpenDML AVIに対応しています。
これらの環境のあるパソコンでは2GB以上のAVIファイルを再生することができますが、多くのパソコンにはそのような環境を持ち得ない場合が多いので、それらの大容量AVIファイルを配布するときには、もらった相手が再生できることを確認する必要があります。
また、2GBを越えるAVIファイル作成については、参照型AVI(Reference AVI)というものも存在し、複数のAVIフィアルを切り替えながら再生を続けて、見かけ上2GB以上の壁を越える方法を取っているものもあります。
この方法を取るAVIも、配布先にこの種の動画ファイルが再生できることを確認して配る必要があります。
2GB以上のファイルを持つ動画像の場合には、JPEGなどの1枚単位の静止画を連番で一つのフォルダーに保存する方法が確実と考えます。
AVIで一つのファイルにまとめるのは、データが飛散してしまわずに便利な側面がありますが、計測という観点からは、一つ一つの静止画で画像処理をするというのが基本なので、静止画の連番ファイルを薦めます。
パワーポイントに動画像を貼り付ける場合は、このファイルから、必要な範囲を抜き取り、必要十分な画素サイズに変換してMPEG2などの圧縮ファイルで保存する方法がスマートだと考えます。
 
【64bit用AVI、32bit用AVI】 (2020.03.01追記)
AVIは、1992年に策定された動画フォーマットで1997年にサポートを終えました。
従って、AVIは32bit用CPUで開発されたものではなくコーデックもほとんどが32bit環境で開発されたため、64bit環境では使用することも再生することもできません。
計測分野では、古くはIndeoコーデックが使われ、DivX、Xvid、VCM9、Cinepakも使われてきました。
これらは、32bit 対応のコーデックす。
64bit環境でAVIが扱えるのは、非圧縮(uncomp)とmicrosoft、cinepakの3種類程度です。
H264コーデックは、現在のところ最も圧縮が高くかつ画質がよいものです。
けれど、このコーデックはWindows7/Vista/8/10に標準でバンドルされていないため、別途インストールする必要があります。
これは、「x264vfw download / SourceForge.net」からダウンロードします。
 
 
【WMV】(Windows Media Video、だぶりゅえむぶい)(2000.06)(2020.03.01追記)
 
マイクロソフト社が、AVIファイル及びASFファイルに代わる規格として2000年に発表したデジタルビデオの新しいプラットフォームです。
2020年の時点ではこのフォーマットでの動画はあまり使われていません。
スマホ(2009年 iPhone)での動画作りにMP4( = MPEG-4)が使われ始め、YouTubeなどのインターネット上の動画でもMP4が広く使われていることから、このファイルフォーマットは使われることはなくなりました。
従って、2010年代以降の動画はほとんど使われていません。
AVIファイルの後継ファイルとして登場したWMVは、AVIに比べ高い圧縮率と大容量化が図られています。
このファイルは、時間圧縮をしているのでAVIオリジナルの1枚1枚を保存する形式とはなっていません。
MPEG圧縮技術を採用しています。
MPEG圧縮といってもマイクロソフト社が独自に手を加えたMS-MPEG4なので、互換性が問題になったこともありました。
いずれにせよ計測分野には使いづらいフォーマットでした。
WMVファイルは、開発当初はインターネット上で徐々に浸透してきました。
Windows Media Player で標準の動画ファイルとして大々的に採用した経緯上、当初影響力は大きなものでした。
AVIファイルが1997年にサポート中止をされた後、幾多の変遷を経てWindowsの動画はこのフォーマットに落ち着きました。
しかし、我々計測分野では依然としてAVIファイルの利用が多いのが実情です。
WMVファイルは、計測用の動画処理ソフトウェアでは認識しないようです。
計測分野になぜWMVが浸透しないのかというと、WMVの採用している圧縮方式(MS-MPEG4←MPEG4と若干違う)が計測分野にそぐわないからだと考えます。
計測分野では動画は1枚1枚独立していたほうが計測をする関係上都合が良いのです。
その意味でAVIは、古い規格ながらその願いにかなったフォーマットなのです。
 
 
【QuickTime】(くいっくたいむ)  (2010.03.27追記)
 
QuickTime(くいっくたいむ)は、コンピュータ動画ファイルの老舗的なものでアップル社が1991年に仕様を決めたマルチメディアフォーマットです。
20年の歴史を持ちます。
マイクロソフト社の開発したAVIは、QuickTimeを過剰に意識して1年遅れでリリースされたものでした。
QuickTimeの初期のものは、圧縮アルゴリズムとしてSuperMac Technologyが開発したCinePakを搭載していました。
パーソナルコンピュータで最初に動画を扱ったフォーマットとして歴史に残るものです。
このフォーマットは、2010年にあっても最強の動画フォーマットとして使われ続けています。
 
QuickTimeの一般的なファイル拡張子は、movあるいはqtです。
QuickTimeは、ムービー、サウンド等が取り扱え、また比較的簡単にムービーを作ることができるため、インターネットでの代表的なフォーマットとなりました。
 
QuickTimeはまた、ビデオデッキ等の制御、ビデオキャプチャ、データ圧縮、メディアの同期再生などの機能とそれを利用するためのツールボックス(システム)を提供しています。
このデータのファイルを「QuickTimeムービーファイル」といいます。
QuickTimeの名前は動画用ファイルフォーマットとしてあまりにも有名になってしまいましたが、実際には、静止画、テキスト、サウンド、MIDIといったさまざまなメディアを扱うことができ、これらのメディアを時間軸を追って制御することができます。
 
クイックタイムは、開発当初、AVIとよく比較されました。
しかし、マルチメディア環境を時間軸に従って同時刻性を持たせる点ではAVIとは比べものになりませんでした。
1993年には、Windows上で再生するための再生エンジンQuickTime for Windowsが発表され、Windows上でも再生可能となりました。
さらに1998年には、Java版の「QuickTime for Java」も発表されました。
 
QuickTimeムービーファイルでは、RIFF(Resource Interchange File Fomat)のチャンクに相当するものをアトム(atom)といいます。
サイズ情報は、32ビットを符号付き整数として扱うので、管理できるのは最大2Gバイトまでです。
これはAVIでも同じです。最近のファイルは、2GB以上のファイル容量をカバーするためにシームレスにファイルを読み出す機能を追加しています。
 
QuickTimeは、非常に良くできたインターネット通信の動画ファイルで、映画用予告編(Trailer)でその能力をいかんなく発揮しています(下図参照)。
ハイビジョン対応のQuickTimeの画質は、非常にキレイで音声もクリアです。
またインターネット上で動画像を再生する際に、データ通信(ストリーミング)をしながら再生もできます。
この機能は、QuickTimeとRealPlayerの二つが秀でています。
 
アップル社は、2001年に発売を開始したiPodの成功により、iTuneの動画ファイルにQuickTimeを標準装備させたり、デジタル動画編集ソフト「Final Cut Pro」でQuickTimeを標準形式としています。

クイックタイムプレーヤによる映画の動画サンプルの縮小画像。 オリジナルは、1280x532画素のもので、H.264デコーダを使用。
映画用のトレーラでは、フルハイビジョン(1080p)でのサンプル配布を行っている。
 
現在のQuickTime(QuickTime7、2005年)は、MPEG4に加えH.264/AVCを標準フォーマットにしているため、互換性の高いものになっています。
2009年には、MacOSが新しくなったことにより(Mac OS ver.10.6 Snow Leopard)、H.264圧縮を高速処理するQuickTimeXを発売しました。
これは、iPhoneで投入された動画処理技術を用いたもので、高画質のハイビジョン画像をストレスなく変換表示したり保存できる機能をもっています。
従来のQuickTime7とは互換性がなく、MPEG-4/H.264に特化したもので古い動画ファイルは読み出すことができません。
QuickTime7とQuickTimeXは共存できるので両者をパソコンにインストールして使用することができます。
 
歴史的に見ますと、QuickTimeは以下のような進化を遂げています。
 
1991 QuickTime1  コンピュータで動く最初のビデオファイル。CD-ROM動画像の再生。Cinepak圧縮技術搭載。
1994 QuickTime2  フルスクリーンビデオ。Windows対応。MPEG-1対応。
1998 QuickTime3  リアルタイム表示(インターネット対応)、Java対応。H.261、H.263対応
1999 QuickTime4  ストリーミング技術拡張。QuickTime TV。Macromedia Flash対応。
2001 QuickTime5  Sorenton Video3、拡張DV、Macromedia Flash4対応
2002 QuickTime6  MPEG-4対応、3GPP、3GPP2対応、MPEG-2再生対応、JPEG2000対応、iTunesに標準装備。Apple Lossless codec採用。
2005 QuickTime7  H.264対応。フルスクリーン制御。
2009 QuickTimeX  iPhone OSより開発。H.264ファイルを高速処理。
            Mac OS ver.10.6(Snow Leopard)にバンドル。
            インテル64bitCPUに対応。従来のQuickTimeとは別ラインのもの。
            古いMacintoshやWindowsには対応していない。
 
【Motion-JPEG】(もーしょんじぇいぺぐ)  (2010.06.29追記)
 
静止画像フォーマットであるJPEGを高速で伸張処理して、連続再生することで動画に見せかける方式です。
M-JPEG(えむ・じぇいぺぐ)とも呼ばれています。
MPEG-2がパソコンでストレスなく使えるようになるまでよく使われていた手法です。
リリースされた時期は明確ではありませんが、JPEGが規格化されてから4年後の1996年頃に規格化への会合が活発になり、以後、ビデオ編集部門や画像計測部門でよく使われるようになりました。
MPEGが圧縮処理に時間がかかったり、処理に高性能のCPUを必要としていたため、それらの環境が整うまでの間、Motion JPEGは重宝されました。
1996年当時は、このファイルを作るのに米国Zoran社とC-Cubed社の2社が供給するMotion JPEGのチップセットを使うのが最もスマートだったので、画像ボードにこれらのチップを搭載してM-JPEG画像を作っていました。
 
1996年当時は、動画をパソコンで見るという環境が整っていませんでした。
コンピュータの能力(CPUやRAM、HDDの容量)がとても非力であったため、こうした動画作成には画像ボードを使って処理することが多く行われていました。
MPEGをパソコンで作ることなど及びもしない時代でした。
こうした時代に培われたMotion JPEGは、ビデオ編集分野で重宝され2010年時点でも編集用動画ファイルとして使われています。
Motion JPEGは、MPEGと異なり、一枚一枚独立した画像として保存しているのでフレーム単位で編集するのに都合が良いのです。
 
その後、コンピュータ内部のソフトウェアだけでM-JPEG画像が作られるようになり、AVIやQuickTimeではMotion JPEGのコーディックが開発されました。
デジタルカメラの動画ファイルには現在も使われていますが、昨今のデジタルカメラは画素数が多くなりすぎ、これをMotion-JPEGで保存すると記録メモリに負担がかかるので、圧縮効率が良くて高画質のH.264を採用するカメラが増えています。
 
Motion JPEGはまた、専用のハードウェアを使ってデータ圧縮を行いながらリアルタイムで動画の取り込みが行えるため、パーソナル向けのビデオキャプチャ・カードなどにこのフォーマットが採用され動画処理に威力を発揮しました。
また、Motion-JPEGはMPEGデータなどと異なり1コマが静止画像として存在するため、任意の箇所での編集が容易に行えます。
圧縮率は1/5から1/20程度であり、圧縮をかけすぎると粗い画像となります。開発当時、この圧縮画像を使って画像計測を行おうとしたところ、圧縮されたデータが誤動作を起こして正確な位置情報が得られませんでした。
 
Motion JPEGとMPEGは、名前が似ていますが、フォーマットが違います。画像計測用にMotion-JPEGはしばしば使われますが、MPEGは不向きです。
MPEGフォーマットでは画像を静止させたりコマ送りしたり逆転再生することが不得意です。
(そうした要求でフォーマットを作っていないので)。JPEG画像でも圧縮の度合いによっては計測は苦しくて、読み取り値が正確ではなくなるという指摘も多くあります。
画像計測にはあまりおすすめできないフォーマットです。
 
そうは言っても2010年にあってはMPEG画像が大量に出回り、好むと好まざるにかかわらず、撮影されたMPEG画像から画像計測をしなければならない状況が多くなってきました。
 
計測精度はどうあれそういう時代になりました。(2010.05.25記)
 
 
【MPEG】(Motion Picture Expert Group)(えむぺぐ) (2009.05.04追記)(2010.06.27追記)
MPEGは、Motion Picture Expert Group の略です。このフォーマットは、1988年に設立された同じ名前を持つグループが動画の符号化技術研究をする中から生まれました。
一般的な拡張子は、mpg、あるいはmpegです。
WMVやQuick Timeと異なり、ISO標準化機構が仕様を決めています。
DVDやデジタル放送の圧縮フォーマットに採用されたため、2010年時点ではもっとも一般的な動画圧縮ファイルフォーマットとなっています。
この動画フォーマットは歴史もあり、今なお発展が続いている動画フォーマットではありますが、扱う範囲が広くなってしまって、例えば、MPEG-4でもいろいろなカテゴリー( = プロファイル)ができてしまい、MPEGと一口に言っても再生できないケースがでてきています。
 
■ キーフレーム
MPEGは、上の概念図が示しているように、すべてのフレーム( = 画面)にわたって独立した画像があるわけではありません。
MPEGでは、キーフレームと呼ばれる全体の画像を構成するフレームがあり、それ以外は、キーフレーム間で動いている部位だけを保存する方式が取られています。
この方法を使えば、1フレームすべてを保存するよりも明らかにデータ量が少なくて済みますし、単位時間あたりに送るデータ量も少なくてすみます。
つまり、この方式は通信帯域が狭くても、帯域以上の情報を持つ映像を送ることができるのです。
 
右の図は、MPEG-2画像の説明図です。
拡大をするとMPEG-2画像の特徴を理解することができます。
この画像は円形の回転円板に四半円形と白丸、黒丸のターゲットマークを貼り付けて回転させている画像の一枚です。
この画像の拡大図を見ると、ターゲット周りの部位だけトリミングされて細かい画素に区分けされ、動いてないバックグランドは大ざっぱに処理されていることがわかります。
 
MPEGの開発は、従って、データ通信の負荷を軽減するために行われました。
動画は大量のデータが連綿と続くので、動画像をインターネット回線などを通じて送ると送信帯域の不足という問題がおきてしまいます。
その不具合を解消する手だてとして、データを圧縮して送るという方法が採用されたのです。
データ圧縮は、JPEGのように一枚の画面の無駄な情報を省く空間圧縮と、複数画像に渡って変化していない画像情報は送らないとする時間圧縮の二種類があります。
空間圧縮と時間圧縮の2方式を使うことにより、圧縮を行わない非圧縮AVIファイルよりも1/100〜1/200程度の圧縮が可能となりました。
MPEGは、1990年代後半から2000年代にかけて、DVDによる映画やインターネット配信、それとデジタルテレビ放送に採用されるようになり、現在の動画ファイルの主力になっています。
 
■ 時間の遅れ
このファイルフォーマットで注意しなければならないことは、一つには、リアルタイムでの送受信が難しいことです。
ファイルの構造上、キーフレーム間の1組の画像(GOP = Group Of Pictures)を単位として、動きのあるところだけを抽出して圧縮処理を行います(下図参照)。
GOPがMPEGファイル画像の基本かたまりとなります。
MPEG処理には相当優秀なエンコーダが必要です。
我々が使っているPCのソフトウェアを使ってMPEGファイルをエンコードするには相当な時間がかかります。
テレビ放送ではパソコンのような悠長なことはできないので、専用のエンコーダ装置を使ってMPEG-2処理を高速で行い放送しています。そうした高性能処理装置を使っても画像間での圧縮処理を行う必要上、画像を溜め込む作業を含めてその処理に時間的な遅れがでます。
それらを合計すると、およそ1〜2秒程度の遅れとなり、実際の現象より遅れて送信経路に入ることになります。
また、受け取る側でもネットワークの通信回線状況や帯域で通信速度が変わります。
その上、受け取るコンピュータでもMPEGを解読して再生画像を作る処理が入りますので、ここでもキーフレームと差分画像から動画像を構築するための処理時間(遅れ時間)を覚悟しなければなりません。
昨今のテレビ放送は、デジタル放送になりましたけれども、MPEGを採用している関係上アナログ放送の同じ番組と見比べると2秒程度遅れています。
(事前に録画したものはデジタル遅れを補正して早めに送っている局もあるそうです。)
NHKの正午の時報などは、昔のアナログ放送やラジオ放送であれば時間の遅れなんどほとんど気にせず送信できたのに、デジタル放送のMPEG-2ではデジタル遅れが出てしまうのでサービスを止めてしまいました。
デジタルなどという高性能の代名詞のような響がある方式に、時間的な遅れがかなりあるというのは驚きです。
メモリバッファに画像情報を溜め込んで再構築するデジタル手法では避けて通れない特徴となります。
 
■ Iフレーム、Pフレーム、Bフレーム
MPEGでは、3種類のフレームが使われています。
・ Iフレーム
・ Pフレーム
・ Bフレーム
 
この3つがGOPの中に格納されています(上図参照)。
キーフレームは、「I」フレーム(Intra coded Frame)と呼ばれています。
差分情報だけの小さい容量情報フレームを「P」フレーム(Predicted Frame、予測フレーム、デルタフレーム)、および「B」フレーム(Bi-Predicted Frame、双方向予測フレーム)と呼んでいます。
「I」フレームは、自己完結型のフレームで画像全体の情報を持っています。
これは、キーフレームとして使われます。JPEGなども空間圧縮をほどこしてはいるもののそれ自体にすべての画像情報を持ち合わせているので「I」フレームに入ります。
「P」フレームはデルタフレーム、もしくは予測フレームとも呼ばれ、直前のフレーム(IフレームもしくはPフレーム)を参照して変化だけを情報として記録しています。
「P」フレームは処理が簡単ですから変換作業が行いやすい反面、圧縮にも限界があり、圧縮率を劇的に上げることはできません。
「B」フレームは、双方向フレームと呼ばれるもので、直前と直後のフレーム(IフレームとPフレーム)を参照して差分を記録するものです。
つまり、後ろのフレームと前のフレーム双方の差分を保存するため、「P」フレームよりもさらに余分な情報をそぎおとすことができ圧縮を高めることができます。
「B」フレームは、当然処理が複雑になりますから、圧縮、解凍には処理装置の負荷がかかります。
 
■ 画像計測としてのMPEG
MPEGでもう一つ注意しなければならないことは、計測目的のためにMPEGを使うのは不適当であることです。
このフォーマットは、本来、限られた通信帯域で動画像を送るという目的で作られたものであり、テレビや映画などを通信回線で送ることを目的としていました。
またMPEG-2では4.7GBの容量のDVDに映画を保存再生することを大事な使命としていました。
DVDによる映画鑑賞は、連続再生が念頭にあります。計測用の動画像は、静止させたりスロー再生を行ったり逆転再生を行います。
そのうえ、画像一枚一枚から物体の変位を求めたり、濃度を精度よく計測します。こうした目的にはMPEGは不向きです。
MPEGでは上で述べたようにキーフレームをつかった連続画像を構築することに重点を置いています。一コマ送りやスキップ再生、逆転再生を行う場合、その都度キーフレームを探して(GOP毎に)希望する範囲での連続画像を構築し、一連の動画像を構築します。そうした工程を経るランダム再生画像は自然ぎこちないものとなります。
放送業界も編集作業にはブロック単位(GOP単位)での編集がしずらいためにMPEGを用いておらず、最終成果品としてのみ使用しています。
こうした観点から、MPEGはその性質を十分に理解して使用する必要があると言えましょう。
(放送局で採用されているMPEG-4 Studio Profileという規格は、編集機能を十分に考慮した規格のようです。)
 
下図に、MPEG-2ファイルを使って回転体に貼付したターゲットマークの変位をプロットした図を示します。
プロット図は、横軸にフレーム、縦軸に回転するターゲットのY方向(垂直方向)の変位成分を示しています。
対象物は回転運動ですからY軸成分は単振動(サインカーブ)になるはずです。
図を見てみますとおもしろいことに気づきます。
15フレーム毎にコブのような成分が現れています。
MPEG-2ファイルのオリジナルファイルはAVIです。
AVIからMPEG-2ファイルを作りました。オリジナルファイルのAVIファイルで同様の解析をしますと(下図、下段)そうしたコブは見あたりません。
 
MPEG-2画像でどうしてこのようなコブの成分が検出されるのかを調べてみて、次のようなことがわかりました。
MPEG-2画像は、GOP(Group Of Pictures)で動画付けが行われていることはすでに述べました。
今回使用したMPEG-2画像は、15フレーム分がGOPの1ブロックに相当しています。
15フレームで1つの動きを完結させています。
ここでの問題は、GOPのブロック間のつなぎ目処理がうまくいっていないことに起因しています。
15コマ間の動画付けはうまく行えるものの、GOPをまたいで次の最初のフレームが数ピクセル分補間できていない感じを受けました。
この問題の解決があるのかどうかは今のところわかりません。
MPEG-2のオーソライズされたフォーマットを使うと、こうした問題が起きてしまうことは事実のようです。
この問題を解決するために、MPEG-2ファイルを開ける際にすべての画像分を読み込んで中間ファイルを作って、それを処理するという方法があります。
上図の解析で使ったMPEG-2ファイルをTIFFの連番ファイルに変換保存して、同様の解析を行ったところコブの不具合はなく、きれいな単振動波形が得られました。
こうしたことから、MPEG-2画像は本質的に解析に不向きであることが理解できます。
計測目的にはできるだけMPEG-2は使わず、TIFF、JPEGの連番画像を用いるか、AVIファイルを用いることがストレスない方法だと考えます。
やむを得ずMPEG-2でしか画像ファイルが入手できない場合は、このファイルを一旦AVIファイルかTIFFファイルに置き換えて解析処理に回すことが無難だと考えます。
MPEG-2ファイルの大きな特徴である2時間(220,000枚@720x480画素)にもわたる長時間録画ファイルを解析したい場合、これを一気に解析する有効な手だては今のところありません。
この場合には、長時間録画されたファイルの中で解析に必要な範囲だけを都度AVIやTIFFにファイル変換して、そのファイルで処理を行うのが簡単で安価な方法だと思います。
計測カメラによっては、長時間録画をPCのハードディスクに直接書き込んでいくものがあり、そうしたものは静止画形式で保存するものが多いので、計測はスムーズに行うことができます。
 
MPEG-1
MPEG-1は、MPEGフォーマットの最初の規格であり、1993年に規格が制定されました。
当初MPEG-1は、転送速度が1.5Mビット/秒で、画像サイズは352 x 240 画素であり、30フレーム/秒の録画ができました。
今から見ると随分小さい画像です。この画像サイズはテレビ画像の1/4であり、テレビを凌ぐという性能ではありませんでした。
MPEG-1が作られた(1993年)当時のデータ通信やパソコンの処理能力を考えたら、この規格が精一杯だったのかも知れません。
MPEG-1のデータ速度は、それでも当時のインターネットに乗せることはまったく不可能でした。
1990年代前半の通信回線はアナログ電話機の回線がほとんどで、これで1.5Mビット/秒のデジタル通信を行うことは不可能だったのです。
当時のダイアルアップ回線の通信速度は28.8kビット/秒が最高性能であり、MPEG-1が要求する1/52の性能しかありませんでした。
従って、MPEG-1は、CD-ROMに動画像を記録する手段として開発され、Video-CDなどに使われました。
CDの焼き込み速度がこのレートでした。
MPEG-1は、2010年にあってはその役割を終え、MPEG-4が使われるようになりました。
MPEG-1のオーディオファイルである「MPEG-1 Audio layer-3」だけは、MP3として2010年でも多く使われています。
 
 
MPEG-2
MPEG-2は、1995年に制定されました。
これは、HDTV(ハイビジョンテレビ)までカバーするデジタルビデオ用の規格でした。
この規格では、MPEG-1に課したビットレートの制限を外し、転送速度を4Mbps〜24Mbpsとしました。
取り扱える画像は、720 x 480 〜 1920 x 1080となり、テレビ画像の品質を意識してハイビジョンにも対応できるものとしました。
ブロードバンドのインターネットにも対応できるようにしたため、MPEG-2はネット配信できる動画像の確固たる地位を確立しました。
また、DVDに採用されたため、最も有名な規格となりました。
 
MPEG-3
 MPEG-3は、存在しません。
このプロジェクトは、1080本インターレース方式で20 Mbps - 40 MbpsによるHDTV映像送信用として規格化が始まりましたが、MPEG-2がそれらの性能を十分に持っているとして、つまり、その方式がMPEG-2と同じであるため開発の意義がなくなり、規格制定中半ばの1992年にMPEG-2に吸収されました。
ちなみに、音楽ファイルで有名なMP3は、MPEG-3ではなく、MPEG-1のオーディオ規格として出発したもので、「MPEG-1 Audio layer-3」の略称です。
 
MPEG-4
1998年に制定された移動体通信用規格です。
規格化された当初の画像フォーマットは、176 x 120 〜 352 x 240 と小さく、通信速度も64kbps 〜 512kbpsと遅いものでした。
この規格は、QuickTime、ASFなどのパソコン上で動くマルチメディアが採用しました。
その後、MPEG-4は取り扱う範疇が広くなり、パートという形で多くの派生規格が生まれ、通信速度も高速になり高画素高品位の規格になっていきました。
2010年にあっては、「MPEG」というとこのカテゴリーを指すことが多くなっていますが、扱う範囲があまりに広いので理解が難しいのも事実です。
MPEG-4が使われている応用には、1セグやQuickTime7、iPod、iPad、AppleTV、HD DVD、Blu-rayなどがあり、これらに採用されている動画フォーマットは、MPEG-4 AVC/H.264 という規格です。
 
MPEG-7
MPEG-7は、従来のMPEGの規格と趣が異なります。
この規格は、マルチメディア・コンテンツに関するさまざまな情報の記述方法を標準化して、検索を行ったりファイリングを可能にする規格となりました。
MPEG-7は、1996年にスタートし、2000年を目標に規格化作業が進められました。
しかし、10年を経た2010年にあってもMPEG-7の名前はあまり聞きません。
規格の趣旨は、インターネットの進展に伴い、インターネットメディア(文書フォーマット)を統一させて検索や閲覧を容易にさせようという狙いがあったようです。
しかし、結果はそれほど芳しいものではなかったようです。
動画像に関する限りMPEG-7での役割はそれほど大きくなく、2010年にあってもMPEG-4が主流です。
 
MPEG-4 AVC/H.264
AVCは、Advanced Video Codingの略です。MPEG-4のパート10の呼び名としてAVCが付けられました。
正式には、「MPEG-4 Part 10 Advanced Video Coding」と呼ぶのが正しいのですが、長いので単にAVCと呼ぶこともあります。
また、開発した機関を尊重してH.264を付けています。
AVCは、MPEG-4のカテゴリーの中にH.264規格を入れて(Part10)ラインアップしたという位置づけです。
AVCは、2003年に制定されてから徐々に使われるようになり、2010年にあってはもっとも優れた動画像圧縮フォーマットとなりました。
取り扱う画像の大きさは、320 x 240画素から1920 x 1080画素と広範囲で、通信レートは320kbps〜10Mbpsと地上デジタル放送規格に当てはまるようになっています。
この規格では、動き補償のためのブロックサイズを16x16画素から4x4画素まで選ぶことができ細かい画像まで補正処理ができるため、ブロックノイズやモスキートノイズの発生を抑えることができます。
 
▲ H.264規格
H.264は、動画圧縮ファイルの規格です。MPEGがISOとIECの組織の下で規格化されたのに対し、H.264は、ITU(国際電気通信連合、International Telecommunication Union、前身がCCITT)の下部組織であるITU-TのVideo Coding Experts Group (VCEG)によって、2003年5月に策定されました。
最初の規格であるH.261は、1990年にできています。
制作年月から言えば古い規格と言えます。
それが進化を続けてH.264になりました。
この規格がMPEGにも採用されることになり、MPEG-4のパート10として仲間入りして、MPEG-4 AVC/H.264となりました。
MPEGとH.264は、本来開発している機関が違っていたのですが、圧縮アルゴリズムは同じでした。H.264は、非常に優秀なアルゴリズムであり、圧縮率が高い割に画質の劣化がなかったためにMPEGがそれを採用しました。
ISO/IECでは、「MPEG-4 Part 10 Advanced Video Coding」として規定し、名前の中にH.264は入っていません。
しかし、内容はH.264そのものであるため開発機関に敬意を表してつぎに示すように併記するようになりました。
「H.264/AVC」 「H.264/MPEG-4 AVC」
「MPEG-4 AVC/H.264」
▲ VC-1(Video Codec 1)
H.264のライバルは、マイクロソフト社のVC-1(Video Codec 1)です。
両者は、圧縮率も画質もほぼ同等といわれています。
VC-1は、マイクロソフト社が独自に開発したMS-MPEG用の圧縮コーデックであり、Windows Media Video 9 (WMV9)としてWindows Media Playerに実装されました。
これが2003年に米国映画テレビジョン技術協会(SMPTE = the Society of Motion Picture and Television Engineers)に申請され、2006年に規格化されました。
VC-1の正式名称は、SMPTE 421M video codec standardですが、こちらは名前が長く覚えずらいので、気軽さも手伝ってVC-1の呼称が広く使われています。
DVDフォーラムでは、このマイクロソフト社の開発したVC-1とH.264であるMPEG-4 AVCの両者を必須アイテムとして承認したため、以後、この二つが動画圧縮ファイルのスタンダードとして使われるようになりました。
VC-1は、HD DVD、Blu-rayディスク、Windows Media Video 9、マイクロソフトSilverlightに採用されています。
 
【DV-AVI】(でぃぶいえいぶいあい)
DV-AVIは、Digital Video AVI の略です。デジタルビデオ規格のデータをそのままAVIという入れ物に入れたフォーマットです。
先に述べたAVIがまさに箱になってしまったという典型的な例です。
DV-AVIは、AVIという箱に入れればいろいろな動画ソフトで再生できるので便利であるという観点から作られ、デジタルビデオカメラからの動画ファイルを作るのに普及しました。
デジタルビデオカメラ録画したDVテープをパソコンに保存するときにDV-AVIが使われます。
MPEGに変換するよりは編集が楽という理由からです。
しかし、当然ながらファイル容量の2GBの壁があります。
DV-AVIファイルの根本は、以下に述べるDV規格です。そのDV規格はMotion JPEGを基本としていますが、計測用の動画像処理ソフトではこのフォーマットに対応していないものが多くあります。
 
【DV】(でぃう゛ぃ)  (2010.07.10追記)
DV(デジタル・ビデオ、ディヴィ)は、Digital Videoの略です。
これは1995年に決められた民生初のデジタルビデオ規格で、従来のアナログビデオテープ方式カメラに替えて、デジタル映像データとして磁気テープに記録するために規格化されました。
デジタル録画ですから、従来のアナログ式のVHSビデオテープレコーダと違って編集や複製に伴う画質の劣化がありません(「デジタルビデオ信号(DV)」参照)。
この規格ができる伏線には、テレビ放送のデジタル化とパソコンの普及があげられます。
1980年代、VTRの普及によりアナログビデオ信号によるビデオ機器が家庭内に広く行き渡るようになりました。
(アナログビデオ信号については、NTSC(Q23.NTSCって何?)を参考にしてください。)
このアナログのテレビ(ビデオ)信号をデジタル化したものがDVフォーマットです。
従って、DVにはNTSC信号の映像情報を最大漏らさずデジタルに置き換える意図がありました。
ビデオ信号をデジタル化したことにより、コピーによる画像の劣化がなくなりました。
それまで普及していた8mmビデオテープレコーダも、これを機会にデジタルビデオテープに替わっていくようになりました。
しかし、そのDVも、2000年後半から登場した80mm径のDVDや1インチ(25.4mm)HDD、半導体メモリ(SDカード)を記録媒体とするビデオカメラの開発により、市場をそれらのカメラに譲るようになりました(AVCHD参照)。
こうしたビデオカメラでは、DVではなくMPEG-4が使われました。
MPEGの方が圧縮が高いからです。
しかし、何度も述べていますが、編集を目的とする業務用の分野ではMotion-JPEGをベースとしたDVは非常に魅力的であるため、そうした分野では2010年においてもDV規格のデジタルビデオテープを利用したビデオカメラが使われています。
 
■ DV - Motion JPEG保存
DV規格での画面サイズは、720×480ピクセルで、フレームレートは30fps、圧縮率は約1/5となっています。
画面サイズは、NTSC信号をデジタルにするために必要かつ十分な画素としています。
30コマ/秒という録画・再生速度もビデオ信号の規格をそのまま踏襲しました。
画像は、Motion-JPEGによるフレーム内圧縮を採用していて、MPEGとは違い一枚一枚の静止画を保存しています。
MPEGは、画像間圧縮を行うためにエンコード処理がとても複雑となり、1995年当時はそれを可能にする安価なMPEGエンコーダチップがなかったため、アマチュア向けの製品には搭載できませんでした。
Motion JPEGは、反面、映像編集が楽にできました。
音声は、サンプリング周波数48kHz、量子化ビット数16bitのリニアPCM2chか、32kHz、12bitのノンリニアPCM4chとなっています。
録画時間は標準カセットで270分、ミニカセット(Mini DV)で60分か80分のいずれかの録画が可能です。
DVには上に述べた一般用のもの(SD)と、ハイビジョン用(HD)用のフォーマットHDV規格があります。(デジタルビデオ信号 参照。)
 
■ DVとMPEG-2
デジタルビデオテープで保存するDVと、DVDに採用されているMPEG-2を比べると、DVのビットレートは約25MbpsでありDVDの8Mbpsに比べて3倍強のデータ量になります。
DVは時間圧縮をしないMotion JPEGが使われているので、データ量が多くなります。
反面、時間圧縮処理を行わないので処理時間が速く、再生も素直に行うことができます。
2010年時点で民生用デジタルカメラの市場を見てみますと、DVテープを使ったデジタルビデオカメラの生産はほとんど行われておらず、HDDやフラッシュメモリ、DVDを用いたMPEG-2録画のビデオカメラが主流となっています。
この流れは、MPEG-2圧縮/解凍がストレスなく行えるまで装置の高速化が進んだことと、使用する記録メディアに汎用性がありコンピュータ、DVD装置との相性がよいこと、記録時間も飛躍的に長くとれるようになったことが主な理由と考えます。
【HDV(High-definition Video)】
HDVは、2003年にDV規格の派生として作られたハイビジョン録画のできる規格です。
HDVについては、ハイビジョンデジタルビデオ(HDV)信号の所でも詳しく触れています。
DVが規格化されるときに、ハイビジョン映像を民生ビデオ機器に組み込むことが考慮されていて、DV規格で開発された素子やテープなどを最大限に利用することが盛り込まれていました。
従って、使用するDVテープも同じものを使うことが前提でした。
この前提に従ってハイビジョン対応が図られました。
そのための大きな規格として、録画フォーマットにMPEG-2が採用されました。
DVがMotion-JPEGを採用していたのに対し、HDVではMPEG-2を採用しました。
ハイビジョンにはMotion JPEGフォーマットでは荷が重すぎました。
 
2010年にあってHDV規格のビデオコーダは、セミプロ使用や業務用の高価な機器だけに限られ、安価なモデルは以下に示すAVCHD規格のビデオコーダが主流となっています。
 
【AVCHD(Advanced Video Codec High Definition)】 (2010.07.10記)
AVCHDは、HDVが採用しているDVテープの記録手法にこだわることなく、さまざまな記録メディアに対応した高圧縮、高画質のハイビジョン規格です。2006年にパナソニックとソニーの共同で基本仕様が策定されました。
AVCHDの基本骨子は、動画像フォーマットにH.264/MPEG-4 AVCを採用し、画像データをパソコンのファイル管理のようなツリー構造としていることです。
テープ録画方式のシリーズ録画とは異なった保存方式です。
このため記録した画像をPCで再生、編集するのに都合良くできいます。
MPEG-4 AVCは、2010年においては最も効率のよい記録フォーマットです。
記録メディアは、基本的には80mm径のDVDであり、このほかにSDカードやHDDなどに対応できるようになっています。
 
2010年現在、民生用ビデオカムコーダのほとんどはこの規格のものとなっています。
 
 
▲ なぜ、720x480画素がNTSC規格の4:3の画面アスペクト比になるのか?  (2007.04.15記)(2010.07.10追記)
 
720 : 480 = 4 : 3 になるか? という疑問です。
これはなりません。
720 : 480 は、3 : 2 であり、4:3になりません。
それなのに、4:3の画面アスペクト比をもつDV規格ではなぜ720画素x480画素になっているのでしょうか。
この素朴な質問に答えるサイトはなかなかありません。
この不思議な疑問は、NTSCの放送規格がデジタルに移行されていく過程での微妙なズレから来ています。
 
まず、NTSCは、画面アスペクト比が 4 : 3 と厳格に決められています。
そして走査線が525本であることも決められていて、これが縦の解像力を決定しています。
縦の525本の解像力から換算して、アスペクト比から横の解像力を求めると700本となります。
CCDカメラが放送局用に作られたとき、CCDメーカは、この規格に併せた撮像素子を作ろうとしたはずです。
しかし、最初からこのような高画素のCCDを作ることができませんでした。
縦方向の画素は525本の走査線を考えれば525個の画素は必要だとしても、横方向はそれに相当する画素を配置するだけの技術がありませんでした。
ソニーが1980年に最初に作ったCCDは、381画素x525画素(20万画素)だったのです。
この配列でNTSCのアスペクト比を満足させるには、381個しかない横方向の画素を縦の画素サイズに比べて1.38倍ほど長くしなければなりませんでした。そうした経緯を経て、技術力が高まっていくと画素数をどんどん増やせるようになり、横方向の画素の多いCCDが作られるようになりました。
縦の画素は525個と決められているので、これは増やすことはできません。
従って、横の画素を増やして水平解像力を高め高画素化を果たして行ったのです。
これは、詰まるところ、1つの画素のアスペクトレシオが水平解像力の増大(画素数が増えていくこと)によって変化していったことを物語っています。
画素が、最初は横長だったのに高画素化になるに従い縦長になって行ったのです。
CCDカメラが計測用に使われるようになって、画素が1:1のものができてくるようになりました。
 
正方格子型撮像素子というものです。
 
コンピュータの発達とともに、コンピュータ上で画像を扱えるようになると、コンピュータに合わせた画素数やCCDのサイズが求められるようになり、VGA規格に合わせた640x480画素の正方格子(1画素のアスペクト比が1:1)が作られるようになりました。
VGAでの画面のアスペクト比は4 : 3 でした。コンピュータの世界は(VGAは)、アスペクト比とおよその画素数はNTSCを見習いましたが、1画素の大きさは正方格子としました。
「1画素 = 正方格子」、これがコンピュータ画像の始まりであり、放送の画面の成り立ちとは大きく異なる点でした。
放送品質を睨んだDV規格は、計測用(コンピュータ用)とは別の道を歩んでいました。
つまり、画質を優先し1画素のアスペクト比を1:1とせず、画素数を優先して720x480画素としました。
それにもかかわらず、画面のアスペクト比は4:3に保ちました。
とすると、1画素の寸法の縦横比が1:0.889となります。
この規格を計測用としてパソコンに取り込む場合、どのようなことがおきるのでしょう。
DV規格での1画素を正方形とみなしてしまうとアスペクト比が変わり、横の寸法が実際よりも12.5%も長く表現されてしまいます。
これでは、この画像から寸法や変位、速度、角度などを求めることができなくなります。
これは、一般の映像機器を計測用に使うときに注意しなければならない重要なポイントです。
計測用には計測用のCCDがあり、放送用やアマチュア用テレビカメラには計測用とは違う要求による(すなわち見かけの画質を優先した)CCDがあったということです。
 
【DVD-video】(でぃぶいでぃびでお)  (2010.7.10追記)
DVD-videoは、DVDに採用されている動画ファイルフォーマットです。
規格化の背景には、上で述べたDV(デジタルビデオ)をDVDに記録するという目的がありました。
2010年時点で、映画、テレビコンテンツのDVD録画メディアとして最もよく使われている方式です。
DVDは、CDと同じ直径と厚さで、CDの約7倍の情報を記録できるディスクです。
片面1層で4.7Gバイトの映像(8MbpsのMPEG-2ファイルの場合は、約1時間分、4MbpsのMPEG-2ファイルの場合は約 2時間分)を記録できます。
片面2層では倍の記録となります。
これらの記録時間はひとつの目安で、映像の質と圧縮の度合いにより変わります。
DVD-videoは、読み出し専用のDVD-ROMやDVDプレーヤーでの再生が可能で、一度だけ書き込めるDVD-R、何度も書き換えのできるDVD-RWなどがあります。
DVDのアプリケーション規格では、 以下の3種類があります。
 
  1)DVD-Video
  2)DVD-VR(Video Recording)
  3)DVD-Audio
 
DVD-Video は、映像に MPEG-2 を採用した映像再生専用規格です。映画用DVDとして最も一般的なものです。
DVD-VR(Video Recording)は、DVD-RW や DVD-RAM を使用して映画などの映像を記録するビデオレコードの規格です。
DVD-VRFとも呼ばれています。
小間切れの録画が可能で、解像度も複数(480x480、544x480など)が許容され、DVD-Videoよりも緩い規格です。
DVD-VRは、日本の企業が作った独自の規格であり、正式な規格ではありません。
DVD-Audioは、オーディオCDのDVD版ですが、一般的ではありません。
DVDビデオ(DVD-Video)は、動画圧縮にMPEG-2を使い、133分の映像と音声が収録されたビデオディスクです。
画素数720ピクセル×480ピクセル、水平解像度約500本程度が主な規格です。
音声は、ドルビーデジタル(AC-3)サラウンドとリニアPCMのどちらかで収録されます。
そのほかにオプションフォーマットとして、MPEGオーディオも認められています。
■ DVD-Videoのファイル構成
DVDビデオ(DVD-Video)ファイルは、PC(コンピュータ)で見ることができます(右写真参照)。
DVDドライブにDVDビデオの収まったDVDディスクを入れ、エクスプローラで開くと、
 
  [AUDIO_TS]と
  [VIDEO_TS]
 
というフォルダが確認できます。
[VIDEO_TS]フォルダには、
 
  「IFO」
  「BUP」
  「VOB」
 
の3種のファイルが入っています。
「IFO」はメニュー情報やマルチアングルなどの制御情報ファイルです。
「BUP」は「IFO」内のファイルが破損した場合のバックアップで、「IFO」と同じファイルが入っています。
「VOB」には映像や音声、字幕などの実データが入っています。
通常は、PCにDVDが挿入されると自動的に認識して再生を行います。
 
【デジタル放送規格】
この規格は、テレビ放送分野で規格化されてきたテレビ映像のデジタル規格です。
デジタル放送規格は、各国様々な思惑が絡みデジタル規格に乗り出したので1950年代のテレビ放送と同様世界統一規格とはなりませんでした。(セグメント放送(Segment Broadcasting)参照。)
日本のデジタル放送規格は、ISDB(Integrated Services Ditital Broadcasiting、総合デジタル放送サービス)というもので、画像の大きさが4つの画像(と1つのおまけ)で選べるようになっています。
4つの画像とは、以下のものです。
 
1. 480i: NTSCの映像サイズをもとにする720x480画素インターレース方式
2. 480p: 720x480画素プログレッシブ方式
3. 720p: ハイビジョン映像である1280x720画素プログレッシブ方式
4. 1080i: ハイビジョン映像である1920x1080画素インターレース方式
(ただし、地上デジタル放送では、帯域の関係上1440x1080iで送り、受像側で1920x1080iに引き延ばしている。)
おまけ5. 1セグ: 320x240画素分の映像
 
この規格は、デジタル放送と液晶/プラズマテレビの台頭によって脚光を浴び一般的になりました。
なお、ISDBには、地上より送るデジタル放送(ISDB-T)(地上デジタル放送)と衛星から送られるデジタル放送(ISDB-S)(デジタル衛星放送)があります。
また、地上波による移動体通信向けのデジタル放送(ISDB-T SB)やケーブルテレビ向けのデジタル放送規格(ISDB-C)もあります。
デジタル放送規格は、コンピュータ文化が育んできたAVIやQuickTimeなどの動画ファイルとは少し趣が異なっています。
テレビ放送では、通信帯域と30フレーム/秒の再生速度が最も重要な仕様であり、これは1945年に決められたアナログのNTSC映像信号から息づいているものです。
放送画像は、30フレーム/秒の撮影・再生速度を維持していかに巧みに画質の良い録画と再生を行うかが技術の粋を集める所であり、そのためにいろいろな圧縮技術が開発されました。
方やコンピュータ動画では、静止画を動画付けする所から出発しています。
画素数も再生速度もなんら束縛するものはありませんでした。
また、テレビ放送が2時間録画を視野に入れながら動画記録方式を決めているのに対し、コンピュータ動画はせいぜい10分程度を視野に入れていました。
なぜ短いのかと言えば、コンピュータの再生能力、保存能力、転送能力が追いつかなかったからです。
 
■ テレビ放送からの画像計測
テレビ放送は、ビデオ録画装置(ビデオレコーダ、DVDレコーダ、BDレコーダ)に蓄えることが可能で、これをDVDやBlue-rayディスクにMPEG-2フォーマットとして保存することができます。
これを計測用として使えるかという素朴な疑問がわきます。
MPEG-2の画像計測への限界はすでに述べました(■ 画像計測としてのMPEG )。
テレビ放送には、画像のインタレースの問題や、アスペクトレシオの問題、コピーの問題などが横たわっていて、これらの諸問題を十分に考慮した扱いが必要であると考えます。
 
【HEVC(High Efficiency Video Coding)】  (2018.11.07)
HEVCは、H.265/MPEG-H Part2の呼び名で、AVCMPEG-4 AVC/H.264の後継となる動画ファイルです。
2103年にJCT-VC(MPEG & VCEG Joint Collaborative Team on Video Coding)グループによって制定されました。
AVCに比べ2倍の圧縮効率(同じ通信帯域で2倍の解像力)を持ち、8192 x 4320画素までを対応可能として4K放送8K放送をも念頭にいれたものです。
HEVCが扱える主要なOSには、Widnows10、Mac OS High Sierra, iOS 11が対応して ます。
HEVCは、特許使用料の問題が複雑に絡んでいて、H.264のように単一機関への特許発生とはならず、複数の開発団体が権利行使をしているため使用にあたってはそれぞれの団体へ特許使用料が必要となります。
これがクリアにならないと普及は難しいと感じます。
 
↑にメニューバーが現れない場合、
クリックして下さい。
 
 
       
 
■ 画像(電子画像)の記録媒体  (2007.09.11)(2010.08.08追記)
 
電子画像(ビデオ画像)を記録する媒体にはどのようなものがあったのでしょうか。
この項目では、電子画像に使われてきた記録媒体について述べたいと思います。
電子画像を記録する媒体の代表的なものは、鉄の磁性体、プラスチック盤を使った光記録、半導体メモリの3つがあります。
これらの3つの記録媒体が発達する前にはフィルム(銀塩感光材)が使われていました。
 
 
▲ フィルムの時代
テレビカメラが開発された当初(1940年代)、テレビ画像を録画する手だてはありませんでした。
テレビ放送と言えば、撮影と同時に遠隔地へ映像信号を送るライブ映像がほとんどだったのです。
当時(1960年頃まで)、映像を記録して放送をする手だてと言えば、唯一の録画媒体であったフィルム(銀塩)しかなかったので、ライブにできない映像は映画カメラで一旦撮影して記録し現像しフィルム画像になったものをテレシネ装置という機械(特殊テレビカメラ=フライング・スポット・スキャナー)でテレビ信号に直して放送していました。
この方式による放送は、2005年あたりまで行われていました。
コマーシャルフィルムは、35mm映画カメラで撮影して、これをテレシネという装置にかけて放送していました。
また、スタジオなどでテレビカメラを使って放送したものを記録保存したい場合にはどうしていたかと言うと、映画フィルムを使っていました。
この装置は、フィルムに相性の良い特殊蛍光面を持った歪みの少ないテレビモニタ(ブラウン管)にテレビ映像を映し出し、これを特殊なフィルムカメラ(キネレコ装置 = Kinescope Recording)でフィルムに撮影していました。
キネレコ装置というのは、現在でもさかんに使われています。
最近の映画はCGによる電子画像が多く、これをフィルムに焼き付ける際にデジタル信号からレーザを使ってフィルムに直接焼き込んでいます。
記録の仕方は、フィルム上を細いレーザビーム光が走り(スキャンし)、テレビ画像の表示と似たような方式で面記録しています。
現在の映画の原本はデジタルで保存されていて、旧来のようにオリジナルネガフィルムを保存するというのではないようです。   → フィルムによる記録へ行く
 
 

 

     
 
▲ 磁性体による記録
テレビ映像記録(電子記録)を初めて行ったのは、酸化鉄による磁気テープの記録装置、すなわちビデオテープレコーダ(VTR = Video Tape Recorder)が開発された1956年です。
磁性粉体が電気信号の記録に使えるという発見(1898年)があってVTRの登場まで、58年の年月が経っています。
映像を磁気記録するというのは、とてつもない技術開発だったのに違いありません。
この項目では、磁性体を使った記録媒体(磁気テープ、フロッピーディスク、ハードディスクなど)を、順を追って紹介したいと思います。 → 「磁性体による記録」へ行く
 
 
▲ 光による記録
1980年代からは「光」による記録、それもレーザを使った記録が発展します。
レーザの発明なくして現在の映像記録の歴史はあり得ませんでした。
レーザの発明とコンピュータの発達(デジタル技術)が光の記録を高度に成長させました。
この項目では、レーザを使った映像装置(レーザディスク)からCD、MO、DVD、Blu-rayの特徴を紹介したいと思います。
→ 「光による記録」へ行く
 
 
▲ 半導体による記録
半導体製造技術が急速な発展を遂げる中、トランジスタを記録媒体とする手法が考え出され、半導体メモリとして注目を集めるようになります。
半導体メモリが一躍脚光を浴びたのは、フラッシュメモリの登場からでしょう。
それまでは、半導体素子を使った記録のアイデアはあるものの映像を記録するメディアとして使用するには、大きさも価格も使い勝手も実用的ではありませんでした。
フラッシュメモリが開発される前の半導体メモリは、コンピュータに使われているDRAMに見られるように、電源を切るとメモリ内容が消えてしまうものでした。 フラッシュメモリは、電源が無くてもデータを保持し続けるという大きな特徴を持っていました。 → 「半導体による記録」へ行く。    
 
   
 
磁性体による記録
 
映像記録という途方もなく高速で大容量のデータを電子的に保存する手法は、酸化鉄による磁性体の磁気記録により光明を見ます。
それまでは、(映画)フィルム(銀塩写真感光材)でなければできないことでした。
映像を記録する磁性体は、ビデオテープの発明から始まります。
これは、音声テープができて後の24年経った1956年のことです。
ビデオテープレコーダ開発も幾多の苦労がありました。

 

   
 
【磁気テープ】 (2008.08.17追記) (2008.12.07追記)
 
 
■ 磁気テープの開発
ビデオテープは、家庭用ビデオテープレコーダのVHSテープなどで広く知られているように、磁性体(記録媒体)を安定のよいポリエステルフィルム(支持体)に塗布したものです。
ビデオテープは、音声用(オーディオ)テープから派生しました。
オーディオテープの開発は、1930年代よりドイツBASF社で始められ、ビデオテープは、1950年代後半に米国3M社が確立しました。
1970年代からは、日本のメーカが磁気テープ開発と製造の主役になりました。
2000年以降の磁気テープは、デジタルテープとしての位置づけが大きくなっています。
 
■ 磁気テープの歴史
磁気テープの開発を歴史的に見てみますと、磁性体を電気信号の記録媒体として使う手法が1898年、デンマークのValdemar Poulsen(ポールセン:1869 - 1942)によって開発されます。
彼は、磁性を持つ鋼線や鋼帯を記録媒体に使った磁気ワイアレコーダを発明しました。
テープではありません。
当時は、薄いプラスチックフィルムを作る技術がなかったのです。
この媒体(磁気ワイヤ)は、しかしながら、記録密度が低くて雑音も多く、1970年代のオーディオテープに比べて1000倍近く劣っていたと言われています。
ポールセンは、アメリカのエジソンが発明した蓄音機(Phonograph、1877年)とベルが発明した電話機(Telephone、1876年)に着想を得て、電話機の録音用としてこの装置を開発して特許を取りました。
彼の録音機は、従って「Telegraphone」(テレグラフォン)と呼ばれました。
この録音機は、電気増幅器がなくて信号が弱く(増幅に必要な三極真空管の発明は、30年後の1906年でした)、それにワイアが絡まったりして録音の信頼性は低いものでした。
この装置は、特許が切れる1918年までそれほどの普及を見ず、1924年に製造を中止します。
アメリカでは、1950年代中頃まで軍を中心として磁気ワイア方式の録音機が使われていたようです。
 
 
■ ドイツのテープレコーダ開発
 
【磁気テープの開発】
録音機の研究開発は、「Telegraphone」の特許が切れる1918年以降再び始まり、1932年にドイツ人のエンジニア Fritz Pfleumer(フリッツ・フロイマー:1881.03〜 1945.08)がテープ方式による録音機を発明します。
この装置は、当初、紙テープを使っていて、これに酸化鉄の磁性体粉をラッカーに溶かして塗布したものでした。
プラスチックテープは、当時の技術では薄くて強度のあるものが作れなかったのです。
彼は、紙巻きタバコの薄紙を扱う技術を持っていたようで、この技術を応用したようです。
彼は、自ら取得した特許をドイツのAEG社(Allgemeine Elektrizitats-Gesellschaft、当時、ドイツの最も大きな電機会社)に売ります。
AEG社は、これを「Magnetophon(マグネトフォン)」という商品名にして、テープレコーダを世に出しました。
このテープレコーダは改良が重ねられ、BASF社(Farben社傘下)の協力により磁気テープも改良されて、オーケストラの演奏する交響楽の録音に使われるまでになりました。
BASF社は大きな化学工業会社で、この会社にはテープの支持体であるアセテートフィルム(Acetate film、1920年代より生産、1924年ブリティッシュ・セラニーズ社工業化)の製造技術と純度の高い磁性体粉末(カーボニル鉄、Fe(CO)5、Carbonyl Iron)を作る技術を持っていました。
磁気テープの製造には、良質で安定したフィルムベースが必要だったのです。
磁気テープで標準支持体となったポリエステルフィルム(Polyester film、1941年英国キャリコプリンターズ社開発、1953年米国デュポン社特許取得)は、寸法安定性が極めてよく、しかも強靱なので厚さを薄くしたフィルム状テープを作ることができます。
しかし、当時はまだこの材料はありませんでした。
ポリエステルフィルムの登場は、1960年以降で、その材料ができるまではアセテートフィルムが主流となっていました。
AEG社のマグネトフォンの成功には、BASF社の磁気テープ開発の功績が大きかったと言われています。
磁性体は、カーボニル鉄からマグネタイト(Fe3O4)に代えられて、改良の足跡を残します。
 
 
■ ACバイアス記録(AC bias method)
また、磁気媒体への録音技術にも改良が加えられて、音質が向上しました。
その改良と言うのは、音声信号を磁気媒体に記録する方式の改良です。
磁気記録は、直流バイアス(DC bias)と呼ばれる手法を経て、交流バイアス(AC bias)法が開発されます。
これにより、音質が飛躍的に向上しました。
マイクロホンから拾った音声信号をそのまま磁性体に記録する方法は、磁気記録方式ができた当初から試されていましたが、芳しい結果を残せませんでした。
磁性体には、ヒステリシスという特性があり、入力の信号に対して正しく比例した記録ができず、微小な入力信号成分は鈍って(なまって)しまいます(右図「通常の磁気録音」参照)。
微弱な信号では、磁性体に十分な磁力を与えることができないのです。
磁性体に十分に磁化できるだけの磁束エネルギーを与える方法として、電気信号に予め一定の電圧を与えて下駄を履かせる方法(バイアスをかける方法)が考え出されました(「DCバイアス法による磁気録音」参照)。
この方法を採用すると、微弱な信号から大きな信号にいたる広い範囲を磁性体の持つリニア(直線)成分に収めることができます。
この方法は、録音時、入力信号に一定の電圧を加えたので直流バイアス(DC bias)法と呼ばれました。
 
 
■ バイアス法 DC
バイアス法は、1907年、デンマークのValdemar Poulsen(ポールセン)が開発します。
デンマークの電話技師であった彼は、自分の発明した録音機でビジネスを成功させようとアメリカに渡りますが、失敗に終わります。
そうした最中にDCバイアス法を考案して、磁性体を使った録音手法にある程度の目処をたてました。
DCバイアスによる記録法は、ドイツのテープレコーダ Magnetophon(英語名:Magnetophone)にも採用されました。
その当時の装置の周波数特性は、50Hz 〜 5kHzで、ダイナミックレンジが40dB、歪率は5%だったそうです。
ダイナミックレンジが40dBというのは1:100であり、この音圧を記録できたことになります。
1:1000(= 60dB)程度になると、なんとかものになる値ですから、当時の録音機はまだまだ音質が悪かったと言えましょう。
現に、マグネトフォンが開発された当時、AEG社はこれを放送向けに使って欲しいという希望を持っていましたが、当時の78回転のレコード(SP盤 = Standard Player Disk)に比べてはるかに音質が悪かったため、採用されませんでした。
また、DCバイアス法には、決定的な欠点がありました。
この手法はバイアス電圧をいつも一定にかけているので、音が無いときでも磁気テープには一定の電圧が加わって録音されることになり、無音であるはずの所でもジーとかシー、サーというヒステリシスノイズが乗ってしまうのです。
 
 
■ 交流バイアス法
その録音品質を変えたのが、交流バイアス法(AC bias method)です。
ACバイアスは、1935年にドイツのBASF社で開発されています。
これが開発された当初は、製品化にはほど遠い性能であったためBASF社はこの研究を中断します。
AEG社もBASF社とは別の観点から同じ発見をしますが、これもものになりませんでした。
1940年に、ドイツ放送会社のRRG社(Reichs- Rundfunkgesellschaft)がこの方法を再度試みて完成させ、マグネトフォンに移植して製品化にこぎ着けます。
マグネトフォンに採用されたACバイアス法は、磁気テープ録音性能を飛躍的に向上させました。
ACバイアスによるテープレコーダの周波数特性は、50Hz 〜 10kHzまで伸び、ダイナミックレンジは 65dB( = 1:1780)となり、歪率は3%に改善されました。
65dBの性能はりっぱな数値です。
ACバイアス法と言うのは、100kHz程度の人間の耳には聞こえない高周波を音声入力信号に重ね合わせて(重畳させて)磁気媒体に録音させるものです。
この方法によると、100kHzの高周波成分のエンベロープ部(包絡線、側波帯)に2つの音声信号が形成され、ヒステリシス曲線の正極側と負極側にまたいで記録されます(右図「ACバイアス法による磁気録音」参照)。
2つの記録信号は、再生時に適切な処理が施されると、力強い信号となり、ノイズ成分を除去できるようになります。 また、無音の場合、2つの音声信号成分の処理によって無電圧信号が得られるので、DCバイアスで問題になったヒステリシスノイズを除去できるメリットも出てきます。 ACバイアス法は、バイアス信号に100kHzという当時の磁気テープには記録できない高い周波数を使っています。 これは、当然のことながら正しくは記録できません。 上の図(上左)にも示したように、磁気テープの記録周波数(M Hz)は、最終的には磁気媒体の記録密度に影響されるものの、それ以前の基本的な約束として、磁気ヘッドのギャップ(d mm)とテープ走行スピード(V m/s)で基本的な録音周波数が決まります。  
M = V / (2 x d)    ・・・(Rec -39)
M: 記録周波数 Hz V: テープ速度 mm/s
d: 磁気ヘッドギャップ mm
一般的な(当時のオーディオ用)磁気ヘッドの空隙(ギャップ)は、10um〜40umであり、テープの走行速度は 45mm/s〜190mm/sです。
この条件から導き出される記録周波数は、560 Hz〜9.5 kHzとなり、ACバイアス法で用いられる100kHzの周波数はとても記録できない値となります。
従って、ACバイアス法では、エンベロープ(包絡線)が磁気テープの記録範囲いっぱいに記録されることをねらったものと考えなければなりません。
この目的のために、記録周波数に影響を与えないはるかに高い(記録周波数の5倍以上)交流を作って音声信号と重ね合わせて、記録信号幅を広くしたものと考えられます。
交流バイアス法(AC bias method)は、ドイツ、アメリカ、日本で同じ時期に別々に発見されたようです。
以上をまとめると、ACバイアス法はDCバイアス法に比べ、以下の有効な改善がみとめられます。  
 
【ACバイアス法の特徴】
  ・ 高出力
  ・ S/N比の向上
  ・ ヒステリシスノイズの低減
 
日本におけるACバイアス法の開発は、1938年に東北大学の永井健三氏と同大学を卒業した安立電気の五十嵐悌二氏らによって行われ、日本での特許が取られています。
この特許は、戦後、ソニー(当時、東京通信工業株式会社)が取得して、これを使ったテープレコーダが開発されました。
この特許のおかげ(とトランジスタ技術の開発)で、ソニーは音響録音機器メーカの覇者になって行きました。
 
 
■ 米国の躍進
Magnetophon(マグネトフォン)は、第二次世界大戦中、ドイツ軍ナチスの重要な戦略機器となり、ナチスの管轄するラジオ放送で多用されるようになりました。
当時、ナチの情勢を監視していた連合軍でしたが、なぜかテープレコーダの存在を知らず、ラジオ放送は全て生放送かレコード盤(SP盤)の短時間録音放送と信じていたようです。
従って、SP盤以上の性能を持った録音などありえないと信じ、交響曲(長い演奏時間)などは生演奏だと信じていたようです。
米国陸軍通信隊(U.S. Army Signal Corps)のJack Mullin(ジャック・マリン、1913 - 1999)が、終戦間際の1945年にスーツケースに収められた携帯用のAEG社のMagnetophonを2台と、BASF社製の磁気テープ50巻を入手しました。
Mullinは、この録音機をアメリカに持って帰って徹底的に調べ、改良を施して新たな録音機を作りました。
この録音機開発に関わったのが、米国AMPEX社です。
磁気テープに関しては、同国の3M社(Minnesota Mining and Manufacturing Company)が BASF社に劣らないものを開発して、Scotchのブランドで販売を始めました。
AMPEX社は、VTR(ビデオテープレコーダ)の開発で有名になった会社ですが、アメリカで最初に高品質のオーディオテープレコーダを作った会社でもあります。
この会社は、オーディオテープレコーダ開発製造の下地があったので、VTR開発にも着手できました(1952年)。
しかし、AMPEX社がオーディオテープレコーダを開発したときの人数は、たった6名でした。
AMPEX社は、1944年に設立された会社で、設立当初は、小型モータと発電機を作っていました。
AMPEX社は、当時、米国陸軍通信隊の仕事をしていたのでMullinとも面識があり、技術力の高さを買われて彼が持ち帰ったマグネトフォンの製品調査と国産レコーダの開発を任されたのでした。
 
■ なぜ米国は、ドイツのテープレコーダの存在を知らなかったのか
出典: Wikipedia Commons
第二次世界大戦中にドイツで開発されたオーディオテープレコーダ(Magnetophon)(1939年)。
ラジオ放送局で使用されていた。
装置のテープ走行系メカニズムやスイッチの配置などを見ると、完成された域に達していることが見て取れる。電子回路は当然真空管を使っていた。
ここで、素朴な疑問がわき上がります。
1943年までの間、アメリカ、そしてフランス、イギリスなどの連合軍は、なぜ高性能なドイツの磁気テープレコーダの存在を知らなかったのでしょうか。
また、ドイツと比較的親しかった日本においても、1930年代後半から1940年代前半にかけてドイツのMagnetophonを積極的に輸入したという事実は見あたりません。
当時、音の記録(録音)と言えば、レコード盤(SP盤 = Standard Playing Disk、78回転/分)が主流であり、終戦当時(1945年)、昭和天皇が国民に向かってラジオ放送で訴えた玉音放送にもSP盤に録音したものを使っていました。
天皇の御言葉は、ラジオの生放送でも磁気テープレコーダによる録音放送でもありませんでした。
映画の世界でも無声映画からトーキー(Talkie、1927年)なった時に採用された録音装置は、光学式録音(映画フィルムの片端に音声に応じた濃淡像を焼き付け、エクサイターランプで光の強度情報を電気信号に換える同期再生方式)でした。
この事実の裏側には、磁気テープレコーダの品質が1930年代後半になるまでかなり悪かったことを伺わせています。
1930年代後半から1940年代前半にかけて、録音装置の性能をドイツが急速に良くして行った時代を、米国ハリウッドに目を移してみると、ハリウッドは、レコードと光学録音に関心を寄せていました。
ドイツでテープレコーダが発達するこの時期は、政治的にはナチスが台頭しヒットラーを中心として軍備を拡大して第二次世界大戦に突入して行った時代でした。
技術的な側面から考えると、この時期、アメリカもヨーロッパも、もちろん日本も録音機に磁性体を使うという方法に難色を示していて、もっぱら光学録音(映画フィルム = サウンドトラック録音)か、もしくは、レコード盤を使った録音に目が向けられていたようです。
たしかに、当時の磁気録音は音質が悪かったので、長時間録音とか簡単な録音再生、
そして携帯に便利という利点以外には、レコード(SP盤)の方が優れていたようです。
ハリウッドでテープレコーダが注目されるのは、戦後AMPEX社がドイツのMagnetophonを複製してからのことです。
戦時中の米国軍は、Marvin Camras(1916 - 1995、イリノイ工科大学教授、Armour Research Institute研究員)が開発した磁気ワイアによる録音機を多く採用していました。
アメリカでは、デンマークのValdemar Poulsen(ポールセン:1869 - 1942)が開発した「Telegraphone」が持ち込まれていたので、その流れができていたようです。
磁気ワイアレコーダーは、戦時中でも軍需を中心に1,000台以上生産され、戦後の1956年頃まで生産を続けていたそうです。
ドイツでは、磁気テープによる録音機が急速な発展を見たのに対し、アメリカの録音機は磁気ワイアのままでした。
アメリカには、当時、薄いプラスチックフィルムを使って磁気テープを作る技術がありませんでした。
イギリスは、1935年にMarconi(マルコーニ、電信会社で有名な会社)とその子会社であるBBC(英国放送会社)が中心になって、薄い鉄テープ(フィルムではなく鉄!)を使った録音機を開発していました。
この鉄テープは、3mm幅で50umの厚さがあり、1.5m/s走行で30分間の録音ができました。
30分の録音ができる鉄テープは、60cmの直径となり9kgの重さだったそうです。
1.5m/sというスピードはかなり速い速度です。
9kgの重さのテープリープを回すのにかなり大きな駆動モータが必要だったでしょう。
それに、鉄製のテープでは、走行ノイズ、回転ノイズがすごかったと想像されます。
この製品は、一般に売り出されることはなく、放送局内で1950年代まで使われていたと言われています。
こうした事実を見てみると、1930年から1940年にかけての磁気録音技術は、ドイツが突出した開発力を持っていたと言えましょう。
しかし、各国はなぜか関心を示しませんでした。
おかしなことに、AEG社とBASF社が、ACバイアス法録音方式とアセテートフィルムテープを使った録音機「Magnetophon」を開発した1941年当時、ナチスはこの製品を秘密にしませんでした。
にもかかわらず、この製品をアメリカ側は無視していました。
この製品は、1941年のベルリンの新聞にも掲載されました。
第二次大戦が勃発した時期、アメリカは6ヶ月間は参戦せず、外交官をベルリンにおいていました。
外交官が興味を示せば簡単に手に入れることができ、本国に送ることもできたのです。
にもかかわらず、彼らは、その新製品に対しては、なぜか無関心でした。
世界が無関心でいる中、ドイツは極めて高性能なテープレコーダを開発して行きました。
磁気テープによる高品質録音が可能になったのは、以下の3点に集約されます。
 
【高品質磁気録音の理由】
  1. 秀逸な磁気テープの開発。
  2. ACバイアス法による高品質な録音方式。
  3. 性能の良いモータと三極真空管をはじめとした電気部品の発達。
 
■ ドイツのテープレコーダ特許はどうなったか
第二次世界大戦後のどさくさに紛れて、という言い方が適切かどうかわかりませんが、アメリカはドイツで熟成されたテープレコーダを本国に移植し、同じものを作ってしまいます。
ドイツでは、テープレコーダの開発にあたって特許を取得して製造をしていたはずでした。
米国は、戦後、ドイツAEG社やBASF社に対してテープレコーダ開発のための特許料を払ったのでしょうか。
ドイツは、世界大戦の首謀者、敗戦国という理由により、連合国側から世界大戦前後に得た製品の特許無効を言い渡されていました。
従って、テープレコーダを開発したAEG、BASF、Agfa各社は、戦後、彼らが開発した特許からの利益を得ることはできませんでした。
そうした中で、アメリカは、いち早くドイツの技術をコピーして、AMPEXや3Mが高性能のテープレコーダと磁気テープを開発しました。
そのテープレコーダの開発も、アメリカの大企業が大きな資本を使って進めたというよりも、Jack Mullin と彼を取り巻く小さな会社がMagnetophone(ドイツ名:Magnetophon)を模倣して作り上げた、という見方の方が正しいようです。
 
アメリカで作り直されたテープレコーダは、アメリカのゲージ(すなわち117VACの電源、インチサイズの部品)で作り直されました。
まず、駆動を受け持つモータをドイツの220VAC駆動から米国の商用電源である117VACに変更し、ドイツの50Hzの電源周波数で動くキャプスタン(テープを一定速度で送るローラ)もアメリカの60Hzで正しく回転するように変更されました。
磁気テープは、ドイツが採用した6.5mm幅をインチに直して1/4インチ(6.35mm)としました。
テープスピードもドイツの77cm/sに近づけて30インチ/秒(76.2cm/s)としました。
この規格(1/4インチテープ巾、テープ走行30インチ/秒)が音声テープの標準規格となって、戦後、本家のドイツもこの規格に従うことになりました。
 
■ テープ支持体
テープレコーダがドイツで大成功を収めたのは、プラスチックの薄いフィルムができたからです。
磁気記録は、1898年にポールセンが提案して以後、磁気ワイア、磁気鋼薄板、紙テープ、プラスチックフィルムなどの変遷を経て、信頼性と使い勝手を向上させました。
1934年、BASF社は、30um厚のアセテートベースに20um厚のカーボニル鉄(Fe(CO)5、Carbonyl Iron、純度の高い鉄粉、1925年にBASF社で発明)をコーティングしたテープを開発しました。
このテープは、6.5mm幅で1m/sのテープ速度、25分間の録音ができました。
従ってテープの長さは、1,500mとなり、テープリールは直径30cmとなりました。
また、1938年には、塩化ビニール(poly vinyl chloride)を用いたテープも開発され、より安定した磁気テープが供給できるようになりました。 1950年代半ばに、米国のDu Pont社と英国ICI社(Imperial Chemical Industries)がポリエステル(Polyester、Mylar)を開発すると、このフィルムが磁気テープフィルムとして使われるようになりました。
PETボトルでよく知られるPET(Polyethlene Telephthalate、ポリエチレンテレフタレート)はポリエステルの一種です。
1989年、VHS全盛の頃に使われていた一般的なビデオテープは、フィルムベース厚14.7um、マルチコート磁性体層厚4.3umの計19um厚のものでした。
テープ支持体フィルムは、時代とともに薄くなって行き、DVCAMのテープは6.3umのベース厚(全厚7.0um)となりました。
磁性層は何と0.3umです。
薄いテープの素材としては、先に述べたPETと、PEN(ポリエチレンナフタレート、Polyethylene Naphthalate)が使われています。
PENはPETよりも2倍近くのヤング率があり、強靱な特性を持っています。
 
 
■ 磁性体 (2010.09.23追記)
磁気テープの一般的なものであるフェライト磁性体は、酸化鉄を主成分としたセラミックスであり1927年〜1930年代にかけて開発されました。
磁気テープが開発された当時の磁性体は、カーボニル鉄(Fe(CO)5、Carbonyl Iron)であり、これは1925年にドイツのBASF社で開発されました。
カーボニル鉄は、純鉄の一種の粉状のものであり、テープに塗布するのに非常に有効でした。
この磁性体は後に、Fe3O4(マグネタイト、magnetite、天然の磁鉄鉱の主成分)に変わりました。
1950年には、米国イリノイ工科大学のMarvin Camras(1916 - 1995)が針状粒子のガンマ-ヘマタイト(γ-Fe2O3、mag hematite)を用いた磁気テープを発表しました。
これは、黒色のサビの一種の酸化鉄であるため、使用中に錆びることなく安定しているのが特徴でした。
製造コストも安価なため、磁気テープのスタンダードとなったものです。
 
磁性体は、その後多くの研究が行われ、クロム(二酸化クロム、1961年、Du Pont開発)を用いたものや、純鉄、コバルト(Avilyn、1973年、TDK開発)などを使ったものが開発されました。
高密度記録ができる磁性体としては、1960年に、Fe-Ni-Co(ニッケルコバルト磁性体)の合金粒子が開発され、1968年には、CrO2(クローム合金磁性体)合金粉末が開発されました。
これらは、γ-ヘマタイトよりも3倍の記録密度を持っていました。
しかし、これらは磁気保持力も強かったので、バイアスのかけ方や消磁の方法が従来とは異なるものとなりました。
また、磁性体自体が硬いのでヘッドの摩耗が激しく、これらの磁性体を使う場合は、磁気ヘッドを適切に選ぶ必要がありました。
 
磁性体は、1980年代からメタルテープの時代になります。
メタルテープは、純鉄を使っていました。従来の酸化鉄を用いた磁性体に比べ、純鉄の方が保持力は高く安価にできます。
純鉄を用いる問題は純鉄の酸化であり、使用と共に酸化が進んで初期性能を満足させることができなくなることでした。
このために、純鉄の酸化を防止するバインダーの技術や多層化の技術が進みました。
また、純鉄の他にも強磁性金属としてコバルトと腐食防止用のニッケルを用いて1um以下の微粒子にして、これを塗布するという技術が確立されました。
 
1980年代の終わりには、メタル磁性体を蒸着技術によって生成する技術が進み、メタル蒸着テープとして8mmデジタルビデオやDVCAMに利用されるようになりました。
メタルテープは、従来の技術を高めた塗布型のMP(Metal Particulate)テープと蒸着技術で作るME(Metal Evaporated)テープの2種類があります。
この二種類は、現在(2010年)のデジタルビデオテープの主流になっているものです。
両者を比較した場合、MEテープの方が新しく、多くの技術的な特徴を持って登場しました。
MEテープは、バインダーを使わずにCo-Ni合金の磁性体をテープに直接蒸着させるので、極めて薄くて高い記録密度を持つ磁気テープとなります。
MPテープは、MEテープよりも先に開発されたものですが、富士フイルムが独自の技術を使ってナノメータレベルの多層膜塗布方式テープを開発してからは、その優秀さが注目されて現在もメタルテープの代表として使用されています。
MPテープは、MEテープに比べて生産効率が高いため製造コストが安く、使用時の耐久性も高いため現在も高い評価を受けています。
   
■ バインダー
磁気テープでは、磁性体材料も大切ながら、磁性体を支持フィルムに安定して固定させるつなぎ(バインダー)が大変重要な意味を持っていました。
磁性体だけでは、支持フィルムにうまく定着できず安定した記録ができないのです。
初期の磁気テープは、磁性体とバインダーの比率が3:7で、バインダーの方がたくさん含まれていました。
バインダーの技術が進み、酸化防コーティング技術も進むと、クロームとかコバルトのような高価な材料を使わなくても、バインダーを減らして純鉄をたくさん含有させれば特性が出るようになったので、高価で取り扱いの難しいクロームテープは市場から姿を消していきました。
磁性体を支持フィルムに塗布する時代から蒸着する時代に変わると、バインダーの意味はなくなってきます。
ビデオテープは、音声テープよりも遙かに高い周波数で、なおかつS/Nよく記録しなければならないので、DV規格のカムコーダに使われる磁気テープは、バインダーを排除した蒸着テープ(MEテープ)が受け入れられました。
ただ、2010年にあってもバインダーを使ったメタル塗布型テープ(MPテープ)が使用されています。
MEテープは生産効率が悪く、大量生産ができずコスト高だったからです。
MEテープが開発されてもMPテープはバインダーの改良が進み、MEテープにひけを取らない高性能なものができてきたため、MPテープとMEテープの双方が存在しています。
MPテープに使われるバインダーは、メタル磁性粉を均一に分散させて吸着させる働きの他に、帯電防止、潤滑、塗布補強の働きを持っています。
MEテープは、バインダを使わずにテープにメタル磁性粉を蒸着させています。
そのためにベースフィルムとの蒸着性をよくする必要上、予め下塗り層処理を施しておいてから蒸着を行っています(上図参照)。
MEテープは、蒸着層がテープから剥がれたり磁気ヘッドとの接触性や摩耗の不具合があったため、磁気ヘッドと接触する面に炭化水素のアモルファス構造の硬膜処理を施した保護層をもうけています。
これをDLC(Diamond Like Carbon)と呼んでいます。
この処理はダイアモンドのように硬い構造を持っているためMEテープの問題であった蒸着層の剥がれや静止モードでのテープの摩耗を抑えることに成功しました。
 
▲ 磁気テープ - アナログからデジタルへ
磁気テープはドイツで発明され、録音機器の発展に呼応してドイツ、米国、日本で進化しました。
日本でのオーディオ・ビデオテープの発展は目を見張るものがありました。
ソニーを始め、松下(現パナソニック)、TDK、日立マクセル、富士フィルム、バインダー技術の花王、ベースフィルムの東レなど、優良なメーカが品質の良い磁気テープを開発し、全世界に供給しました。
日本のメーカによる磁気テープの品質が良いのは、磁性体材料開発に優秀な技術者が集まっていたことと、製造品質においても類い希な技術を有していたことによります。
そうした磁気テープも、1990年代後半あたりから転換点を迎えます。
時代の趨勢により、従来のオーディオ用途の磁気テープが、CDやHDD、フラッシュメモリーに奪われ、VHSを中心としたビデオ録画の分野においてもDVDなどのポリカーボネート記録媒体が普及したため需要が減少してしまったのです。
現在(2008年)の磁気テープは、デジタルカムコーダのデジタル磁気テープ(DV)や、放送局用録画テープ、そして、コンピュータ分野のストレージデータテープに需要を伸ばしているに過ぎず、需要の絶対量は減ってきています。
そして、磁気テープもデジタルの時代を迎えることになりました。
     
 
■映像の記録
 
▲ ビデオテープレコーダの開発 - 米国AMPEX社  (2010.08.20追記)
電気信号による画像の保存は、ビデオテープレコーダの発明で光明をみます。
この技術は、磁気録音装置の延長線にあるもので、1956年以降のことです。
オーディオ記録とビデオ記録では要求される技術が桁違いに異なりました。
ビデオテープレコーダの開発には多くの技術的問題があり、それを解決するため多額の開発費と時間がかかりました。
その困難を乗り越えて世界で初めてビデオテープレコーダを開発したのは、米国AMPEX社でした。
 
 
■ 回転ドラムヘッド
酸化鉄磁性体を使ったテープを使って、映像が電子的に記録できるようになったのは1956年のことです。
米国のAMPEX社(1944年設立、米国カルフォルニア州サンカルロス)が、テレビカメラでとらえた電子画像をテープに録画する装置の開発に成功したのです。
映像は情報が多いため、オーディオテープのような記録方式ではとても満足いく画像を記録することはできません。
AMPEX社は、録画ヘッドを14,400rpm(240Hz、ビデオ信号のフィールド画像60フィールド/秒の4倍)で回転させて、そのヘッドをテープの走行方向に対して垂直にスキャンするという方式を考え出しました(下右図参照)。 通常、オーディオに使われている録音・再生ヘッドは、移動したり回転したりはしません。
固定です。
固定ヘッドの上を磁気テープが走行して音声信号を記録し再生するのが一般的な方法でした。
しかし、ビデオ信号は情報が多いので(記録周波数が高いので)、この方法に頼っていたのではとても周波数帯域を確保することができませんでした。
磁気ヘッドを回転させる発想は、奇抜なものだったと言えます。 記録周波数を上げる方法としては、ヘッドを複数配置してテープ速度を上げてマルチチャンネル記録すると言うのが常套手段です(現在のコンピュータの磁気テープ装置はそのようにしています。MT参照)。
しかし、そうは言ってもテープ走行を10m/sで走らせて、その上、そのスピードを一定にさせるという技術が当時できなかったのでしょう。
10m/sというのはかなりの速度です。
このスピードで10分程度の画像を録画したとしたらどのくらいの容量になるでしょう。
6,000mもの長さになります。
VHSテープが240mですからVHSテープよりもさらに25倍もの長さが必要となり、その長さでも10分しか録画できないのです。
そうした方法よりも、回転ドラムにヘッドを取り付けて、テープと磁気ヘッドの相対速度を上げて周波数帯域をかせぐ方がより現実的だとAMPEX社の技術者は考えました。
磁気ヘッドが回転して磁気テープに情報を記録する方式は、記録をとぎれとぎれに行うことになります。
しかしテレビの映像信号は走査線で画面を構成していたので、走査線1本分をヘッドがテープをスキャンする時間にあてがえば問題となりませんでした。
この考え方をもとにして、家庭用VTRで一般的になるVHSもベータもU-maticもすべて回転ドラム方式を採用するようになりました。 ベータ方式やVHS方式では、さらに周波数帯域を上げるために斜めにテープをスキャンするヘリカルスキャン方式を採用しました。
VHSは、この方法によってテープとヘッドの相対速度を5.8m/sとしています。
ちなみに、オーディオテープは1/4インチ(6.35mm幅)のテープで、30インチ/秒(76cm/s)での走行が最高でした。 テープだけの走行では、1m/sの速度が耐久性を含めた運用上の限界だったのかもしれません。
 
回転ドラムによる磁気記録を最初に開発したAMPEX社は、テープ走行に対してドラムが垂直に横切るバーティカルスキャン(vertical scanning, transverse scanning)方式を採用しました。
これは、回転ドラムの周囲90°毎に4つの磁気ヘッドを配置して、ドラムが90度回転するごとにテープがヘッドの厚さぶんだけ走行移動するようにし、4つのヘッドのいずれかが常時磁気テープにコンタクトするように考案されていました。
使用した磁気テープは、2インチ(50.8mm)幅のある太いものでした。
このビデオテープレコーダは、2 inch Quadruplex Videotape Recorderと呼ばれました。
テープ走行とドラムヘッドの回転(14,400rpm)によって作られるヘッドとテープの相対速度は40m/sとなりました。
固定ヘッドではこの速度はとても達成できない値です。
この記録速度によって、約13MHzの信号を記録・再生できるようになりました。
 
2インチ(50.8mm)巾のテープは、両端にオーディオトラックとコントロールトラック信号、それにブランク領域を確保する関係上、1 - 4/5 インチ(48.26 mm)巾が映像記録ができる1ライン( = トラック)となります。
実際は、4つのヘッドが順番にトラックに入って来るので、1ヘッドが1トラックに記録する長さは、1 5/8 インチ(41.275 mm)となります。
回転ドラムは1秒間に240回まわりますので、ヘッドは1秒間に960回トラックをなぞって行きます。
テレビ映像は1秒間に30コマの映像を作っているので1コマのテレビ映像は、32トラックで構成されることになります。
 
【AMPEX社開発のVTR概略仕様】
・ 使用テープ: 2インチ巾(50.8mm)磁気テープ、4800ft(1500m)、1時間録画
・ 磁気ヘッド: 回転ドラム式
・ 回転ドラム径: φ52.55mm(ヘッド・テープスピードより算出)
・ ヘッド数: 4
・ スキャン方式: 垂直スキャン(vertical scan)方式
・ ドラム回転数: 240 Hz(14,400 rpm)
・ ヘッド - テープ相対速度: 1,560インチ/秒(39.6 m/s)
・ テープ走行速度: 15インチ/秒(0.381 m/s)
・ 信号記録帯域: 13MHz (ヘッドギャップを1.5umとして換算)
・ 記録方式; FM(周波数変調)方式 ・ トラック巾: 10 mil(254 um)
・ トラックピッチ: 15 mil (381 um)    
 
 
【ビデオテープレコーダの開発背景】
ビデオテープレコーダが開発された直接の動機は、米国のテレビ放送の時間差にありました。
アメリカは国土が広いため、ニューヨークのある東海岸とロスアンゼルスのある西海岸では4時間の時差があります。
プライムタイム(ゴールデンアワー)でニュース番組を流したり、しゃれたトーク番組を放送しても4時間の時差のある反対側では真夜中になってしまったり、まだ人々が働いている時間帯だったりするわけです。
こうした時間差を克服するために、映像を蓄えてタイムリーに流すことができたら便利だと彼らは考えました。
こうした要求に応えるためAMPEX社が開発に乗り出し、1956年11月30日、CBSの「the Douglas Edwards with the News」(ダグラス・エドワーズのニュース)においてビデオテープレコーダを使った放送を初めて行いました。
もちろん白黒画像でした。
 
初期の時代のビデオテープレコーダは非常に高価でした。
それ以上に、消耗品である2インチテープがとても高価であったと言われています。
1時間の録画ができるオープンリール式2インチビデオテープが当時、日本で100万円相当したそうです。
当時の大卒者の初任給が1〜2万円だったことを考えると、現在(2009年)の価格にして1500万円相当になります。
1時間の録画に1500万円をかけるというのはとんでもない話だったに違いありません。
そのために、当時はビデオテープを使い回しをして、録画しては消して、上書きの録画を行っていました。
その結果、1960年代のテレビ映像の多くは、録画はされたけれども次々と消されてしまい、記録として残せなかったという残念なことになりました。
 
また、AMPEXのVTR装置は非常に大きくて重く、巾が1m50cm、高さが1m60cmあったそうです。
大きな本棚のようなキャビネットの装置で、そこに重さ5.5kgもあるビデオテープが鎮座していました。
ビデオテープを取り替えるときは、両手でテープを胸の高さまで持ち上げて足下にあるペダルでバキュームロックを外して取り替えていたそうです。
そしてまた、回転するビデオヘッドのアライメント調整がとてもシビアで、使用する部屋は一定の温度と湿度を保たないと正常に動作しなかったと言われています。
回転ヘッドは消耗品で、テープとの摩耗でヘッドが目詰まりしたりアライメントが狂ったりします。
そうした場合の調整はとても難しくて現場ではできないので、テレビ局はヘッドアセンブリを常時保管していて、交換が必要な時にアセンブリ毎交換していたと言います。
 
そうした中で、ソニーがトランジスタを使った放送用2インチテープビデオテープレコーダを開発し(1961年)、3/4インチテープをカセットに入れたU-maticを開発し(1970年)、1/2インチ幅のベータ方式のベータカムを開発(1975年)して行きました。
装置もコンパクトになり信頼性を増し、使用するテープもどんどん安価になっていきました。
1980年代後半には、磁気テープを使ったデジタル録画ができるようになりました。
 
 
▲ ドルビー(Ray Milton Dolby、1933 - 2013)氏のこと
AMPEX社でVTRを開発したエンジニアの一人にRay Dolby氏がいます。
映像分野では、ドルビー(Ray Dolby:1933.01〜)氏の業績はそれほど高くはなく、音響分野でノイズリダクションシステムを開発した人として、ドルビーシステムの名前でなじみが深いと思います。
そのドルビー氏は、上記のAMPEX社に高校時代アルバイト生として、そして夏休みには長期のアルバイトという形でオーディオテープレコーダの開発を手伝っていました。
彼は、オレゴン州ポートランドで生まれてサンフランシスコで育ちました。
また、彼がスタンフォード大学(1951-52、1953 - 1957)に入った時もAMPEX社と関わり続け、アルバイトの形でAMPEX社のビデオテープレコーダの開発に関わりました。
彼はスタンフォード大学の電気工学科を卒業し、英国に渡ってケンブリッジ大学に通い物理学で博士号を取得します。
ケンブリッジ大学を出た後は、インド政府の招きで技術アドバイザーをしていましたが、1965年に英国に戻りドルビー研究所(Dolby Laboratories)を設立します。
設立した年に、音響のノイズリダクション方式であるドルビーサウンドシステムを発表しました。
この方式は映画の音響システムに採用されて大きな反響を呼び、彼の音響工学に対する技術を揺るぎないものにしました。
 
私がここで話題にしたいのは、ドルビーシステムのことではなく、映像の磁気記録装置に関わった若き日のドルビー氏のことです。
AMPEX社のビデオテープレコーダの開発は1952年に始まります。 完成の年1956年から遡って4年前にプロジェクトがスタートしました。
4年の開発年月が長いと見るべきなのか妥当と見るべきなのかはよくわかりませんが、AMPEX社の社内事情やプロジェクトの中断などがあって4年という歳月が費やされました。
若きエンジニアのドルビーが加わっていなければ、AMPEXのVTR完成はさらに遅れていただろうと言われています。
AMPEX社は1944年に創設され、小型モータと発電機を作る会社としてスタートしました。
6人の会社でした。
同社は、米国陸軍通信部隊と取引があった関係で、米軍が第二次大戦中にドイツから持ち帰ったテープレコーダの国産化を託され、1947年から開発を始め、1年後の1948年に完成してABC(米国の放送会社)に採用されました。
少人数の技術集団でしたが技術力は高かったようです。
こうしてAMPEX社はテープレコーダ製造会社として発展を続け、放送局用のテープレコーダのみならず、米軍の計測用テープレコーダや、ハリウッドの映画音声システムを手がけるようになりました。
 
ドルビー氏は、AMPEX社がオーディオテープレコーダの開発を始めた当初からアルバイトとして同社に出入りし、音響工学の知識を深めて行ったようです。
AMPEX社がビデオテープレコーダの開発を始めた1952年は、ドルビー氏がスタンフォード大学の2年生でした。
19才の学生ですからまだまともなエンジニアリングの経験と実績は乏しかったと思いますが、技術的アプローチと発想の才に秀でていたようで、瞬く間にプロジェクトの中核となって行きます。
彼は、その仕事にのめり込みすぎて大学を中退してしまいます。 おかげで大学生の特典である兵役の免除が切れてしまい、1953年の3月に徴兵されてしまいました。
彼が徴兵に出ている間、AMPEX社のプロジェクトは、一進一退を繰り返し、またAMPEX社そのものの経営方針の都合で、そのプロジェクトが一時棚上げされて中断もしました。
1954年1月にプロジェクトが再開され、1955年の春にドルビー氏が兵役から帰って来ました。
その1年後にビデオテープレコーダは完成します。
ドルビー氏は、今度は大学に通いながらアルバイトという形でプロジェクトに参加し、FM変調回路(周波数変調方式、ラジオ放送のFM放送方式に似た方式)を用いたシンプル化設計に能力を発揮しました。
ビデオ信号をテープに録画する上で、FMによる信号記録(録画)は一つの技術革新でした。
この技術によって高い周波数の映像信号を録画し再生できるようになりました。
     
 
▲ FM記録(Frequency Modulation Recording)   (2010.08.21記)(2010.08.24追記)
FM記録は、AMPEX社がビデオテープレコーダ開発に採用した磁気テープへの信号記録方式です。
従来のオーディオ録音技術を使ったのではとても満足な映像記録ができないために、この手法が開発されました。
VTRの開発にあたっては、広帯域信号記録を行うためにまず磁気ヘッドの高速化が図られました。
回転磁気ヘッドの採用により、テープとヘッドの相対速度を1,560インチ/秒(39.6 m/s)として広帯域録画に対応させました。
AMPEXが開発したビデオテープレコーダは、13MHzの信号帯域を録画できる能力を持っていました。
この録画信号帯域とテープ・ヘッド相対速度から、ヘッドギャップ長を求めると、1.52umのギャップ長となります。
 
d = V/(2 x F) = 39.6E6 um / (2 x 13 MHz = 1.52 um
 
AMPEXは、この方式によって広帯域の録画性能を満たしました。
(VHS方式の磁気ヘッドでは、さらに狭い0.3umのギャップ長になっています。)
NTSC信号の信号帯域を見てみますと、規格で4.2MHzと決められています(NTSC規格の水平解像力参照)。
AMPEX社はこの帯域の3倍強を持つ磁気ヘッドとビデオテープの開発を行ったことになります。
なぜ、仕様をオーバーするような開発を行ったのでしょうか。
それは、オーディオで使われているACバイアス法を映像記録に用いると、帯域が大幅に不足して、さらに低い周波数領域では歪みも大きくなってしまう問題があったからです。
このような理由から、ACバイアス法を諦めて周波数変調による記録法(FM記録)を採用することにしたのです。
FM(Frequency Modulation)とは、入力信号(振幅情報)を周波数に変換する手法で、振幅の大きいものは周波数を高くして小さいものは周波数を低くする信号変換手法です。
アナログテレビ放送でもこの方法は採用されていて、FM信号による映像信号を無線を使って送信しています。
ラジオ放送にもFM放送があり、同様の方式を取っています。
FM記録はラジオ放送を聞いてわかるように、ノイズが少なく高品質です。
扱う信号帯域を広く取ることができ、ノイズに強いというのがFM記録の特徴です。 AMPEX社は、FM記録を行うにあたって基本周波数(搬送波 = carrier)を8.6MHzとしました。
この周波数を中心として入力信号を上下の側波帯(±4.2MHz)を乗せると、
 
  4.4MHz <(8.6MHz) < 12.8MHz
 
が磁気テープに記録される周波数帯域となります。
磁気テープには、常時この範囲の周波数が記録されることになります。
AMPEX社が13MHzの記録帯域を目指した理由がここにあります。 テレビ画像の周波数を考えるとき、モノトーンの部位から細かい部位までの画像周波数は30Hz〜4,200,000Hzとなります。
このレンジは、1:140,000であり、103dBに相当します。
このダイナミックレンジをカバーする磁気記録など当時では不可能に近い値でした。
多くの電子機器は、60dB(1:1,000)程度の機器を作るのがやっとで、100dB(1:100,000)を越えるものの開発は現実性が極めて乏しいと言わざるを得なかったのです。
このテレビ画像の周波数をFM記録にすると、4.4:12.8 = 1:2.9( = 9.3dB)となり、狭いダイナミックレンジでも十分に映像を記録できることになります。
FM記録の大きな特徴がここにありました。
FM変調は、周波数のゲタを履かせて周波数成分のダイナミックレンジを見かけ上小さくする手法でした。
この手法は、以降、VHS方式のVTRにも採用されて行きました。
アナログ信号処理の救世主のような存在がFM記録だったのです。
           
 
▲ MT(Magnetic Tape)- コンピュータ用デジタル磁気テープ (2008.08.18追記)(2010.12.12追記)
磁気テープを使った記録装置について、今度は映像の世界からコンピュータの世界に目を向けて見ることにします。
磁気テープは、アナログ記録からスタートしました。
アナログ記録では、信号の強度を磁化の強さとして記録していました。
デジタル記録が大前提であるコンピュータ用外部記録としても磁気テープは比較的早くから注目されていました。
 
■ IBM726
コンピュータ用の外部記憶装置として開発された最初の磁気テープ記録装置は、IBM社の開発したモデル726というものです。
モデル726が完成したのは、1952年のことですから、磁気テープ(セルロース・アセテートベース)が米国で販売されるようになってすぐにこの装置の開発に入った感じを受けます。
1952年と言えば、まだ本格的な電子計算機は市販化されていません。
当時の電子計算機はまだ試作の域を出ていなかったのです。
IBMも、この当時は大型計算機を作っておらず、レミントンランド社(後、ユニシス社)の電子計算機を自社のパンチカードと組み合わせて売っていました。
そのIBM社が自社の電子計算機(IBM701)を開発し、それにIBM726を組み合わせて販売したのです。
もちろんIBM726は新しい装置ですから、高価であり信頼性もわかっていなかったので、長らくはパンチカードシステム(PCS = Punch Card System、URE = Unit Record Equipment)が主流の座を占めて行きます。
しかし、1952年の比較的早い時期に、磁気テープを使ったデジタルデータ記憶装置を開発したのは特筆すべきことと言えましょう。
大型計算機が、商業ベースに乗ってその存在を確立するのは、1964年のIBM360からです。
この時代にあってもデータの入出力装置の主流はパンチカードでした。
パンチカードの方が安価で使いやすかったのです。
モデル726のキーコンポーネントは、磁気テープであり、高速で安定した品質を保つため、IBMは3M社にコンピュータ用ストレージ専用のテープを注文しました。
テープは表面にわずかの異物の付着を認めず、それは、マンハッタンとポキプシー(ニューヨーク州)間の96kmの道路をわずかの小石をも認めない品質であったと言われています。
そのため、IBM社はポキプシーにクリーンルーム装備を備えたテープコーティング工場を建設し、品質の向上に努めました。
精密な検査を経て製造される磁気テープは極めて高価なものでした。
音声記録装置としての磁気テープがアナログ記録だったのに対し、IBMは最初からデジタル記録を行いました。
ただ、当時のデジタル記録はそれほど高速かつ高密度にできたわけではありませんでした。
IBM726は、45,000ビット/秒の読み書き能力を持っていました。
現在の音楽用CDの記録速度が4Mビット/秒(データ実効値は1.4112Mbps)であるので、IBM726の記録速度はCDの性能の1/31程度でした。
その上、記録時間は3分程度でした。
この事実は、この時代の磁気テープで音声デジタル録音をすることなど全く不可能であり、音声技術よりも帯域の広い映像技術の確立はほど遠いことを物語っています。
IBMは、磁気テープを使った記録装置を開発していくにあたり、テープ幅を1/2インチ(12.7mm)としました。
これは、現在にいたるまで終始一貫したものであり、オープンリールからカートリッジ仕様へと外装は変わっても同じテープ幅のものが使い続けられています。
 
■ モデル726のデータアクセス
モデル726は、テープ幅1/2インチ(12.7mm)に7トラック(6ビット + 1パリティ)の記録方式を採用しました。
テープリールの大きさは直径300mmであり、テープの長さは1,200フィート(366m長)でした。
両腕で持ち上げてずしりとする重さでした。
記録密度は、600BPI(bit per inch)であり、75インチ/秒(1.905m/s)のテープ速度で書き込みを行いました。
この性能から計算すると、記録速度は45,000ビット/秒(5.6KB/秒)となり、1,200フィート(366m長)のテープには約3分にわたって1.08MBのデータが保存できることになります。
CDの容量の1/600にも満たないこの容量でも、1950年代の記録媒体としてはおそろしく大きなものでした。
モデル726磁気テープ装置には、大きな特徴がありました。
それは、テープを大きくU字にたるませる機構でした。
上右図に示すように、磁気テープの走行経路では300mm径の磁気テープリールから磁気ヘッドに導かれる途中に、500mm程度のテープのたるみを作るスペースを取っています。
また、磁気ヘッドから巻き取りリール(テイクアップリール)に行く途中にも同様のスペースが設けられています。
テープのU字状のたるみは、真空ポンプを使ってテープを吸い寄せて作っていました。
なぜ、このような大きなたるみを作ったかというと、当時の磁気テープはデータを頻繁に書き込んだり読み出したりする装置であったため、テープは頻繁にデータアクセスがなされ、その都度テープはストップ&ゴー(停止と走行)が繰り返されました。
このため、テープ走行経路にこうした緩衝(バッファ、たるみ)を設けないとテープをレスポンス良く高速に動かすことができなかったのです。
現在の我々が考える磁気テープ装置は、システムのバックアップとして一気にデータを書き込んだり読み出したりするものと考えがちですが、当時は都度データを読み書きする装置だったのです。
モデル726は、この方式によって、1/100秒でデータをアクセスすることを可能にしました。
テープは1/100秒で0.5インチ(12.7mm)進むので、この間はデータを記録することができません。
モデル726では、データを細切れにして保存するため、データブロック間はこの分だけのスペースを設けていました。
1960年代から1980年代の大型計算機室には、巨大な磁気テープ装置群が鎮座していて、高速でストップ&ゴーを繰り返しながらデータをアクセスしていました。
その動きが目新しかったために、磁気テープ装置とその動きがコンピュータそのものの代名詞のようにメディアに取り上げられていました。
   
LTO規格のデータストレージテープ。 1巻方式のカセットに収納されている。
これを書き込み/読み出し装置に挿入して使用する。
 
■ LTO(Linear Tape-Open)Ultrium  (2010.12.12追記)
磁気テープは、時代と共にマルチヘッドによる高密度高速記録ができるようになりました。
2009年当時にあっても1/2インチ(12.7mm)磁気テープは、メインフレーム(大型コンピュータ)のバックアップ記録装置として使われ続けています。
新しい磁気テープは、LTO(Linear Tape-Open)Ultrium規格になっています(右図、下図参照)。
この規格は、1998年にIBM、HP、Seagateの3社が策定したオープン規格です。
この規格の基礎となっているのは、IBMが1980年代より採用しているカートリッジ3480です。
従来、コンピュータデータストレージの磁気テープには共通の規格というものがなかったため、利権争いの温床となっていました。
これをユーザが使いやすいように規格を練り直し、オープン化したのがこの規格です。
この規格は時代とともに進化してLTO-1からLTO-5まで発展し、2010年以降もLTO-6(3.2 TB容量)、LTO-7(6.4TB容量)、LTO-8(12.8TB容量)の仕様策定が準備されています。
2010年に策定されたLTO-5規格を以下に示します。
 
・発売日: 2010年
・カートリッジ寸法: 102.0 x 105.4 x 21.5 mm
・保存容量: 1.5TB
・テープ巾: 1/2インチ(12.7mm)
・最大データ速度: 140MB/s
・テープ走行速度: 3.8m/s 〜 7.5m/s
・テープの厚さ: 6.6um
・テープ長さ: 846m
・テープのトラック数: 1,280
・書き込み端子数: 16
・バンド当たりのラップ数: 20
・記録密度: 15,142 bits/mm
・データ通信インタフェース: Serial-attached SCSI (SAS)
 
 
この規格では、カートリッジ式テープ内に1.5TBのデータを保存することができ、最大140MB/秒の記録速度を持っています。
また、この規格はテープを4バンドに分けて、1バンド当たり16chのヘッドを使ってテープ上を20回行き来(10往復)して、データを書き込み/読み出しを行っています。
 
16chの磁気ヘッドは、テープの往復にミクロン単位の位置制御を行い、最適なトラック位置でのデータ読み書きを行っています。
下図にテープのトラックパターンを示します。12.7mm幅のテープには、1,280トラックが走り、テープの両端には走行安定のためのサーボ(制御)信号が記録されています。
トラック一つ分の幅は5um程度となり、これをマルチチャンネル磁気ヘッドを使って読み書きを行っています。
カートリッジ内のテープは、データ読み書きのためにカートリッジから出たり入ったりの繰り返しを煩雑に行うことになります。
(serpentine recording = サーペンタイン法。サーペンタインは蛇の蛇行運動の意味)。
そのスピードは、3.8m/s〜7.5m/sととても速く、磁気テープの走行では最速です。
このテープの持つデータ容量を見る限り、現在注目を浴びているDVDやHDDと比較しても記録容量や記録速度、メディアの価格などの点で依然として磁気テープのメリットがあることに気づかされます。
LTO-5では、最大140MB/sの記録速度を持ちます。この速度はHDDの4倍の記録速度に相当します。
メディアも1.5TB(1巻)当たり15,000円程度です。
1.5TB容量は、100円程度のDVDだと320ヶ必要ですから、金額にして32,000円ほどになり、保管も大変ですからLTOのメリットは十分にあります。
ただし、当然のことながら、テープは連続した一連の記録が得意であり、任意の部位を取り出したりファイルを入れ替えたり(ランダムアクセス)することはできません。
従って、膨大なデータをバックアップする目的に威力を発揮します。
▲ 磁気テープのデジタル記録とビデオ録画
コンピュータに使われてきた磁気テープ装置と、テレビ分野で使われてきた映像を記録する磁気テープ(ビデオテープ)装置は、それぞれ別々の目的を持って開発されたもので、それぞれのエンジニアが心血を注いで開発を続けてきたものです。
磁気記録の本質は違いないものの、記録方式が異なっていたために開発はそれぞれ独立した道を歩んで行きました。
両者の大きな違いは、出発点がデジタル記録かアナログ記録かです。
そして、デジタル記録はコンピュータのデータ保存が出発点であり、アナログ記録は映像(もしくは音声)記録が出発点でした。
コンピュータの周辺装置としての磁気記録は、デジタル記録が大前提なのでこれは譲る事ができません。
方やビデオ録画はNTSC規格を代表とするビデオ信号の記録が大前提であり、規格当初から2011年の放送終了に至るまでアナログ信号です。
そして、ビデオ信号は1秒間に30フレーム、走査線数525本という大きな決まりがあり、これをカバーする記録・再生を行わなければなりません。
ビデオ録画には、開発当初から周波数帯域の高い性能と長時間記録性能が求められていました。これをデジタルで行う事など全く不可能でした。
米国AMPEX社がビデオテープレコーダを開発した1956年の電子部品と言えば、真空管が全盛の時代でした。
その時代に、9MHzの映像信号をテープに記録して再生するという装置を完成しなければなりませんでした。
この映像情報をデジタル信号に直して保存するとすると、1情報を8ビット(白黒256階調)としても72Mビット/秒の信号処理を必要とします。
圧縮など思いもよらない時代でした。 周波数の高いテレビ信号にあっては、これを組み伏せるだけの技術がデジタル信号処理にはなく、追いつくことなど到底できない仕様上の大きな障害でした。
アナログはデジタルに比べて高速処理ができるメリットがあったのです。
ただ、アナログ処理はノイズが入り込む要素が非常に多く、転送やコピーを繰り返す毎に品質が劣化します。
 
デジタル処理は、基本的に信号劣化がありません。
しかし、デジタル処理には装置の電子処理の負荷が相当にかかります。
高速記録の観点から言うと、アナログの方がデジタルよりも速く行うことができました。
そういう時代が長く続いたのです。
映像のデジタル録画は、1982年にD1という規格で現れます。
これは、放送局のVTRに採用された規格です。
VHSビデオが開発された1976年の6年後の事です。
1970年代から1980年代、VTRがすごい勢いをもって技術力を高めて行ったことがこのことから理解できます。
   
 
▲ ビデオテープレコーダ - VHS vs ベータ
ここで、ビデオテープレコーダの代表的規格となったVHS規格とベータ規格について触れます。
VHS規格のビデオテープレコーダは、1976年に日本ビクターによって開発されます。
VHSは、Video Home Systemの略と言われていますが、開発初期はVideo Helical Scanの略であったと言われています。
米国AMPEX社が2インチ(50.8mm)幅の磁気テープを使って、回転ビデオヘッドを垂直にスキャン(transverse scanning)する機構のビデオテープレコーダを完成したのを契機として、よりコンパクトな1/2インチ(12.7mm)テープ幅を使ったカセットに収めるビデオ録画装置が開発されました。
放送局用では、3/4インチ(19.05mm)幅テープをカセットに入れたU-matic(1970年開発、主開発はソニー、ファミリーは松下電器産業 = パナソニック、日本ビクター、海外5社)が一般的であったので、テープ巾をさらに小さくした1/2インチ(12.7mm)のカセットテープを使ったコンシューマ用(民生用)として開発されました。
磁気テープによる映像録画は、アンペックス社のVTR開発以降、磁気ヘッドが回転するスキャン方式が定着します。
 
ソニーが放送局用に1976年に開発した1インチ(25.4mm)VTRは、直径134mmの回転ドラムのほぼ全周(354°)を巻き付ける「C」フォーマット(もしくはオメガ = Ω 巻き)でした。
     
VHSフォーマット概要
* 開発年: 1976年
* 主開発メーカ: 日本ビクター
* 陣営: 松下電器(現パナソニック)、
     日立製作所、三菱電機、シャープ、
     赤井電機
* 記録方式:ヘリカルスキャン方式
* 記録ヘッド数:2
* ヘッドドラム直径:62mm
* ヘッドドラム回転数:29.97Hz (約1,800rpm)
* カセットテープサイズ: 188mm×104mm×25mm
* テープ幅:1/2インチ(12.7mm)
*テープ送り速度:約33.34mm/s(標準)
* 記録トラック幅:約58um(標準)
* 信号方式   VHS方式
 
■ 映像信号:周波数変調 (FM)
シンクチップ3.4MHz
白ピーク:4.4MHz
クロマ信号:低域変換方式
S-VHS方式
■ 映像信号:周波数変調(FM)
シンクチップ:5.4MHz
白ピーク:7.0MHz
クロマ信号:低域変換方式
■ 音声信号:2チャンネル長手方向記録
(ノーマル音声トラックの場合)
ベータフォーマットの概要
* 開発年: 1975年
* 主開発メーカ: ソニー
* 陣営: 東芝、三洋電機、日本電気、アイワ、      パイオニア
* 記録方式:ヘリカルスキャン方式
* 記録ヘッド数:2
* ヘッドドラム直径:約74mm
* ヘッドドラム回転数:29.97Hz (約1,800rpm)
* カセットテープサイズ: 156mm×96mm×25mm 
* テープ幅:1/2インチ(12.7mm)
* テープ送り速度:約40mm/s
* 記録トラック幅:約58um
* 信号方式:
 
■ 映像信号:周波数変調 (FM)
シンクチップ:3.6MHz
白ピーク:4.8MHz
クロマ信号:低域変換方式
 
■ 音声信号:2チャンネル長手方向記録
VHSとベータのビデオ戦争は、ユーザを巻き込んだ激しいシェア争奪戦でした。(ビデオ戦争:1976年〜1988年)
最終的に民生用のビデオ装置は、VHSが勝利しました。
技術の高さとマーケッティングの巧みさで連戦連勝を続けるソニーには相当に手痛い敗北でした。
しかしその勝利もつかの間、次なる新しい技術 = デジタル映像の台頭により、アナログ記録であるVHS装置も終焉の時期を迎えなければなりませんでした。
2008年1月に、VHSによるVTRの生産は全て終了しました。
VHSは、32年の歴史だったと言うことができるでしょうか。
アナログのVTRは姿を消しましたが、デジタル方式によるVTRは、現在も主流で使われています。
1/4インチ(6.35mm)幅のメタルテープ(miniDV)を使用したデジタルビデオカメラには、回転ドラムヘッドによるデジタル記録方式を採用しています。
放送局用のデジタルビデオコーダにもデジタルビデオテープが使われています。
 
1/2インチカセット方式のビデオ録画装置開発は、映像の歴史に大きな足跡を残しました。
これは、真にビデオの時代の到来を告げた出来事だったと言っても過言ではないでしょう。
一般家庭に普及することがこれほどの効果をもたらすのか、と思い知らされた出来事でした。 また、民生用のVTRの普及に伴ってビデオ関連装置が派生的に発展し、CCDカメラの熟成を促しました。
CCDカメラと小型ビデオテープレコーダ(8mmビデオ)の開発と成功は、「ビデオ」、「CCD」という言葉を生活の底辺まで定着させ使用用途を拡大させたのみならず、そこで得た技術と利益を放送局用のカメラやビデオテープレコーダへ還元することができました。
市場の拡大により、CCDカメラは格段に安くなり、手軽にビデオ画像を扱うことができるようになりました。
 
コンピュータ(CPU)の発展は、デジタル映像技術にさらに拍車をかけました。
コンピュータの発展なくして、今のデジタル映像の発展はないでしょう。
高画質の映像が得られても、簡単に見ることができなれば利用価値がないからです。
     
 
▲ DV規格とメタルテープ
磁気テープは、ビデオ録画媒体として発展を遂げ、1982年にはVHSテープを利用した200コマ/秒の高速度ビデオカメラが生まれました。
1984年には専用の高密度磁気テープを使った2,000コマ/秒の高速度カメラも現れました。
磁気テープは長時間、高速録画という要求に見事に応えた記録媒体でした。
現在の放送局用のデジタルハイビジョン用の映像記録媒体にも磁気テープが使われています。
しかし、磁気テープと言っても中身は大分変わりました。
 
磁気テープ開発の大きな技術革新は、記録方式がアナログ記録からデジタルになったことと、磁気テープ自体がコンパクトになりメタル蒸着テープが採用されたことです。
我々の使い勝手の面からではわからない裏方の技術として、磁性体開発のブレークスルーもありました。 それまでの磁性体は、酸化鉄をバインダーと呼ばれる支持体に混ぜてこれをテープに塗布していました。
こうした方式に代えて磁性体をそのままテープに蒸着する技術が開発されました。
これがメタル蒸着テープ(ME = Metal Evaporated)テープと呼ばれるものです。
メタルテープには、磁気記録に関与しないバインダーが無いのでテープを薄くすることができ、記録密度も向上させることができました。
こうした技術発展の中で、磁気テープは、
2インチテープ幅(50.8mm)のオープンリール
→ 1インチ(25.4mm)
→ 3/4インチ(19.05mm)
→ (8mm)
→ 1/4インチ(6.35mm)
→ 1/2インチ(12.7mm)
と小さくなっていきました。
高い周波数帯域まで十分な性能が高められてくると、映像もデジタルで記録できる可能性が出てきました。
8mmデジタルビデオカメラは、メタルテープのコンパクトさと記録密度の高さによって実現できたと言えます。
DV規格は、先にも述べたNTSCアナログ信号をデジタルに直した規格で、アマチュア向けのビデオ信号に広く利用されるようになったものです。       
   
【フロッピーディスク(Floppy Disk = FD)】  (2009.10.18追記)(2010.12.22追記)
フロッピーディスクは、個人目的を含めて2005年頃までのパーソナルコンピュータの一般的な記録媒体であり、コンパクトさと安価であることから非常によく使われていました。
しかし、2005年以降、このメディアが使われることはほとんどなくなりました。
その証拠に、2000年以降発売されるパソコンにはフロッピー装置が装備されなくなりました。
フロッピーディスクは、画像を扱うファイル用記録媒体としての利用価値はなく、もっぱらドキュメントファイルの保存に使われていました。
このメディアは、記憶容量が少なくてデータアクセスの速度が遅いので、画像データを扱うには不向きだったのです。
フロッピーディスクは、手軽に持ち運べて媒体も安価であったのに、2000年を境にして急速に市場から姿を消していった理由として以下のものが考えられます。
 
・ パソコンの扱うデータ容量に対応できなくなった。(画像ファイルの台頭、OSの肥大化)
・ フロッピーディスクの読み書き速度が遅かった。 (約125kビット/s)
・ CD-R/RWが普及して、これがパソコンの標準装備となった。
・ フラッシュメモリの普及により、手軽に大容量のデータが バックアップできるようになった。
・ パソコン本体にUSBが標準装備され、手軽に周辺機器(CD、DVD、HDD、USBメモリ)と接続できるようになった。
 
▲ 開発
フロッピーディスク(IBM社はディスケット = disketteと呼んでいた)は、薄い(約77um厚の)ポリエステルフィルム(米国Du Pont社の開発したマイラーフィルム = Mylar)の円板(floppy = フロッピー)に磁性体を塗布して保護ケースに入れたもので、これを読み書き装置に挿入してデータを読み込んだり、書き出しを行っていました。
フロッピーディスクの読み書きを行う磁気ヘッド内蔵装置をフロッピーディスクドライブ(Floppy Disk Drive = FDD)と呼んでいました。
フロッピーデスクシステムが最初に開発されたのは、1967年のことです。 パソコン(1981年)が登場するはるか以前のことです。 この装置は、IBM社のエンジニア、アラン・F・シュガート(Alan Field Shugart: 1930.09 - 2006.12)がパンチカードの代用として開発しました。
当時のフロッピーデスクの記録容量は、8インチ(φ203mm)の大きさがあるにもかかわらず、わずか256KBでした。
IBM社は、当時、彼らが開発したメインフレームであるIBM370のシステムロード用として、取り扱いが簡便な外部記憶装置を求めていました。
その代用として開発されたのが、8インチフロッピーディスクだったのです。
フロッピーディスクは、従って、当然のことながら開発当初からデジタル記録媒体でした。
8インチフロッピーディスクは、Memorex社から販売されました。
Memorex社の設立は、1961年です。
この会社は、VTRを開発したAMPEX社を退職した3名によって磁気テープ製造を目的として設立され、IBM社向けの磁気テープと磁気ディスクの製造で成長しました。
同社は、2006年、Imation社に吸収されました。
 
 
■ IBMパンチカード(IBM 80 Column Punched Card Format)
1928年に開発され、1970年代まで主流であったIBM パンチカード。   カードの大きさは、7 -3/8 x 3 -1/4インチ(187.3mmx82.55mm)。 厚さは、0.007インチ(0.178mm) = 143枚で1インチ(25.4mm)。
当時の大型計算機は、このカードを読みってバッチ(束)処理された。
IBMが開発したフロッピーディスクは、当時記憶装置の主流であったパンチカードを多分に意識していました。
要するに、パンチカードに置き換える目的でフロッピーディスクが開発されたのです。
パンチカードによる情報処理は1800年代からあり、コンピュータができる以前からありました。
パンチカードを最初に使ったのは、フランスの発明家ジョゼフ・マリー・ジャカール(Joseph Marie Jacquard)で、彼が発明した織物の文様を形作る装置(ジャカード織機)に採用されたと言われています。
これをイギリスの数学者チャールズ・バベッジ(Charles Babbage、1791年 - 1871年)が、数学解析を行う機械に組み込むことを1800年代後半に考案し、コンピュータへの入出力装置として注目されました。
コンピュータ自体は1940年後半になるまで実用的なものが現れず、パンチカードは大量のデータ処理を必要とする分野に使われ、1890年の米国国勢調査で米国の発明家ハーマン・ホレリス(Herman Hollerith、1860年 - 1929年)が作った集計装置タビュレーティングマシン(Tabulating Machine)に使われていました。
米国IBM社(設立:1911年)は、ホレリスの興したTabulating Machine Companyを母体(他に2社、計3社の合併会社)として、タビュレーティング装置(パンチカードシステム)を製造販売する会社として発展しました。
パンチカードはIBMの心臓部だったのです。
IBMが採用したパンチカードは、1928年に開発したIBM 80欄パンチカード(IBM 80 Column Punched Card Format)が有名で、以後このカードは電子計算機の時代になっても1980年代半ばまでの約60年に渡って使い続けられました。
IBM 80欄 パンチカードの特徴は、以下の通りです。
・ 穴の形状は長方形。
・ 1枚のカードに80欄。1欄は12穴。
   つまり1枚のカードに12ビット80キャラクタが記録(= 960 bit = 120B)
・ カードのサイズは、7-3/8インチ x 3-1/4インチ(187.325mm x 82.55mm)。
  当時の1ドル紙幣の大きさ。(現在の1ドル紙幣は、これより縦横20%小さくなっている。)
・ カードの厚さは、0.007インチ(0.178mm)。1インチの厚さで143枚のカード。
・ カードは、取り扱いが楽なように表面をスムーズ処理し、かつ丈夫さも確保。
・ 高速処理をするため、1964年からカードの隅を丸くした。
・ カードには専用の収納箱があり、2000枚のカードを収納。
・ 1欄12穴の情報は、数字は12穴の中の上から3番目〜12番目を0から9にあて、
  英文字は、一番上から三つ分(Y、X、0)のゾーンパンチエリアと組み合わせた。(上右図参照)
・ 12ヶの穴あけは、電子計算機に使用される際に
  EBCDIC = Extended Binary Coded Decimal Interchange Code
    に準拠して穴位置が決められた。
 
上の図からもわかるように、パンチカードに入力する文字とパンチ穴のコーディングは簡潔で、現在我々が認識する二進法を取っていません。
人間がパンチ穴の開け方ら判断しやすい方法となっています。
パンチカードは、コンピュータができる以前からあったので、人間が認識しずらい二進法そのものの穴あけは採用しなかったものと思われます。
上の図では数字とアルファベット大文字、特殊文字を含めた213文字が示されています。
実際は、EBCDIC(拡張二進化十進法)に準拠するときにさらに文字が追加されて、最終的に256文字となりました。
パンチカード自体は12穴であるので、これを二進法にあてたビットに直すと、212 種類(4,096種類)の記号をあてることができます。
しかし、パンチカードは歴史的な経緯から人が認識しにくい2進法コーディングにすることはせず、このような方法を取ったと考えます。
パンチカードは、手頃なデジタル記録媒体であり、データの追加や消去、並び替えが簡単にできました。
 
私の大学時代(1970年代後半)のことを思い出すと、当時、コンピュータは大学内に数台しかなく、別棟で空調設備の整った建物(大型電子計算機室)を建てて、そこに大型コンピュータを設置して共同使用する運用方法を取っていました。
大型コンピュータのプログラムの保存は、パンチカードでした。
1970年代の安価なデジタル記録媒体と言えば、パンチカードか紙テープだったのです。
使用者はパンチカードの束を携えて計算機室に入り、カードリーダでパンチカードを読み取らせて、一日程度開けて計算結果を取りに行っていました。
パンチカードは1980年頃まで使われていました。
フロッピーディスクの登場によって、簡便で記憶容量の大きいデジタル記録媒体の時代になりました。
フロッピーディスクが一般的に使われるようになったのは1980年代からと記憶しています。
   
 
■ トラックとセクタ(Track, Sector)
フロッピーディスクに採用された記録媒体は、レコード盤のようにシリーズに記録する方式ではなく、細切れに間仕切りして、ランダムアクセスを可能としました。
細切れの最小単位は、当時よく使われていたパンチカード(右上写真)の記憶容量から割り出されました。
IBMが当時採用していたパンチカードは、12列(12ビット)x80欄 = 960bit(120バイト)の容量を持っていたので、8インチフロッピーディスクでは1セクタ(部屋割り)をビットの切りの良い128バイト(27)としました。
(1セクタは、その後 512バイト = 29バイト が標準となりました。ディスクの大容量化とともにセクタは大きくなり、2011年にはフラッシュメモリの1セクタが4096バイト = 212バイトとなりました。)
セクタ分割によるディスク内のデータ保存は、全周を26分割に分けさらにデスクを放射状に横切るトラック数(77トラック)で分割しました。
こうすることにより、8インチフロッピーディスクは、77トラック x 26分割 = 2002セクタの部屋割りができました。(右下図参照)
1セクタは、カードパンチャ1枚分の記録容量なので、初期のフロッピーディスク(256KB)は、2002枚のパンチカードのデータを保存できたことになります。
 
当時、パンチカードは2,000枚を収納するパンチカードボックスに入れて保管されていたので、パンチカードボックス1箱分が8インチのフロッピー1枚にそのまま入れ替わることになりました。
フロッピーディスクは、ディスクの回転数を一定にしてデータを読み書きする方式(CAV = Constant Angular Velocity方式)なので、フロッピーの内側と外側では線速度が異なり、内側のセクタが外側のセクタに比べて記録品質が劣るという問題がありました。
従って、フロッピーのデータ容量は、内側のセクタのデータ容量を標準にして決められました。
 
▲ パソコンに搭載 - CP/M
フロッピーディスク装置は、パソコン目的用としてではなく大型コンピュータ用として開発されたことは今述べたとおりです。
IBM-PCが発売された1981年より7年も前の1974年に、マイクロコンピュータと8インチフロッピーデスクドライブをつなげた人物がいます。
それがゲーリー・キルドール(Gary Arlen Kildall:1942.5.19〜1994.7.11)です。
彼は、インテル社が開発した8ビットのマイクロコンピュータ(i8080)を使って、データをマイコンにアップロードさせたりダウンロードさせたりする管理プログラム(OS = Operating System)を作りました。
これが、パーソナルコンピュータ用OSの元祖とされるCP/M( Control Program for Microcomputers、マイクロコンピュータのための制御プログラム)でした。
CP/Mは、マイクロソフト社で発売されたMS-DOS(MicroSoft Disk Operating System)の原型をなすものでした。
CP/Mには、マイクロコンピュータにデータを入出力させるBIOS(Basic Input/Output System)と呼ばれる心臓部があり、この心臓部の大きな役割が8インチフロッピーディスク管理だったのです。
当時、フロッピー装置の価格は1台当たり500ドル(約15万円)もしたので、彼らの手の出る代物ではありませんでした。
そこで、彼はフロッピーディスクドライブのメーカ、シュガート・アソシエーツ社(Shugart Associates、IBM社の元Managerシュガートが1972年に設立した会社)を説得して、一万時間の耐久テストが終わった使い古しのドライブをタダで手に入れ、これを管理する「CP/M」というオペレーティングシステムを開発したのです。
このエピソードから何がわかるかというと、当時、開発者のゲーリー・キルドールにとって500ドルがとても高価な投資であったことから、CP/Mは個人ベースで開発されたと解釈できます。
パソコン(マイコンキット)は、1970年代後半にあっては個人の趣味で(もしくは仲間内で自分のコンピュータ技術を自慢するために)作られていたのです。
電卓の心臓部として日本のビジコン社の嶋正利が4ビットマイコンをインテルに作らせた1971年当時、マイコンは性能的に中途半端であり、開発したインテルでさえも応用を見いだせずにいました。
せいぜい電子工学が好きな若者のオモチャ程度だったのです。
インテルは、8ビットマイコン(i8080)をまともに動かすための環境ソフトを開発するために、当時、西海岸の海軍大学大学院でコンピュータサイエンスの教授をしていたゲーリー・キルドールを技術顧問(パートタイム)として雇いました。
彼は、生来呑気だったようで(それでいて天才的なプログラマーだった)、インテルの事務所に車で出向くのがイヤで自宅で請け負った仕事をしようと考えました。(2022年の現在では、全世界家庭で仕事をするというのは、インターネットのおかげで普通になっていますが当時は認可が難しい仕事形態でした。)(2022.04.19追記)
そこで、自宅で8ビットマイクロプロセッサi8080が動くソフトを書き上げるために中古のフロッピーディスクをシュガート社から譲り受け、BIOSの原型と最初のパソコン用OSであるCP/Mを作り上げました。
このソフトをインテルに持ち込んだのですが、インテルはまったく関心を示しませんでした。
それで、自分で会社(デジタルリサーチ社、Digital Research, Inc.)を興し、1976年にCP/M(インテルi8080用OS)を販売するようになります。
これが、マイクロソフト社のMS-DOSの母体です。
マイクロソフト社がIBM社に売ったMS-DOSは、CP/Mと中身(コーディング)がほとんど同じものだったと言われています。
ただ、MS-DOSはインテルの16ビットCPU i8086に合わせてコーディングされていました。
以後、IBM-PCの爆発的ヒットは周知の通りで、パソコンにフロッピー装備は当たり前のことなりました。
 
8インチサイズのフロッピーデスクは、1976年に5.25インチ(5 - 1/4インチ)サイズの小さなものとなり大きな普及を見ます。
日本で一斉を風靡した日本電気の16ビットパソコンPC-9801F(1983年発売)には、2基の5.25インチ2DDのフロッピーディスクドライブがついていて、一方にはMS-DOSのシステムフロッピーが挿入され、もう一方にはデータ保存用のフロッピーが挿入できるようになっていました。 当時HDD(ハードディスクドライブ)はとても高価だったので、コンピュータにはシステムを保存しておく記録媒体を持っていませんでした。
システムをフロッピーから立ち上げていたのです。
当時はその程度の容量でシステムができていたのです。
さらに、1982年には、日本のソニーがハードカバーで覆った3.5インチのフロッピーデスク(280kB)を開発します。
その後、いろいろなメーカが同種の記録媒体を開発していきますが、世界的に見て、ソニーの開発した3.5インチのフロッピーデスク(下右写真)が一番の成功を収めたように思います。
ソニーのハードカバー3.5インチフロッピーが成功した主要因は、
 
・ 1984年のアップル社マッキントッシュに標準装備されたこと、
・ 1985年には、アタリやコモドールも続いてパーソナルコンピュータの標準として行ったこと、
・ ディスケットがプラスチックカバーで覆われ、ディスク面も自動開閉のスライドカバーで覆われて携行性が良かったこと、
・ データ容量も十分に大きかったこと、製品の信頼性が高かったこと、
 
などが挙げられます。
 
3.5インチFDDは進化をとげ、
   → 開発当初(1982年)は片面で280KBであったものが、
    → 両面倍密度(2D、360KB)
      → 両面倍密度倍トラック(2DD、720KB、1984年)
        → 両面高密度(2HD、1.44MB、1987年)
 
と発展していきました。
 
▲ 画像保存用のフロッピーディスク
フロッピーディスクが画像保存用に使われたことがあります。
1981年、ソニーがCCDカメラ、マビカ(Mavica)を開発したときに、カメラの記憶媒体として2インチのフロッピーディスクを採用しました。
保存形式は、デジタルファイルではなくFM変調したアナログ記録で、570x490画素相当の画像を50枚保存しました。
再生は、NTSCアナログ信号による読み出しで、既存のテレビモニタのビデオ端子にケーブルを接続して見るようになっていました。
1981年当時、静止画像を記録するカメラと言えばフィルムカメラが圧倒的でした。
当時は、デジタルフォーマットによる画像は整備されていませんでした。
計測用画像ファイルで有名になるTIFFができるのが、1986年のことです。
圧縮画像で有名なJPEGは、1992年の開発です。
従って、この時代にあっては画像の保存をアナログであれフロッピーに詰め込んだのは画期的なことでした。
ソニーは、フロッピーデスクの開発元であったが故にフロッピーに執着し、デジタルマビカを出した1990年代も3.5インチフロッピーディスクを使ったデジタルカメラを販売していました。
1999年に発売したデジタルマビカMVC-FD88Kは、130万画素CCDを搭載し、4倍速に進化した3.5インチフロッピーデスクにJPEG画像を4枚(1280x960画素)〜40枚(640x480画素)分を保存できるようにしていました。
このカメラは、パソコンとのデータ受け渡しを簡単にできることを狙ったものでしたが、フラッシュメモリの台頭とともに、記録容量と書き込み速度、それに取扱勝手に劣るこのタイプのものは終焉の時を迎えるに至りました。
 
▲ フロッピーディスクの性能限界
2000年を越えた頃より、パソコンの性能向上とともにインターネットが普及して音声や画像の通信がさかんになると、頻繁に扱うデータの容量と転送速度がフロッピーディスクの潜在性能を超えてしまうようになりました。
従来、テキストだけであったパソコンの文書作成に、画像が貼り付けられようになると、文書の容量が桁違いに大きくなりました。
A4サイズで40文字x45行を埋める文字を扱っている時代は、4KB程度のファイルサイズで済んでいたのに、300dpi相当の80mmx60mmのカラー画像(BMP)を貼り付けるようになると、画像だけで2MBの保存容量が必要となります。
この容量は3.5インチ2HDのフロッピーディスクの記録容量1.4MBをゆうに超えてしまいます。
また、フロッピーディスクは、データを取り出すのに時間がかかります。
転送速度は、125kビット/s程度であるため、1.4MBいっぱいに保存されたデータを読み出すには、90秒程度かかります。
パリティなどのエラーチェックやセクタ間の移動時間を考えると3分程度のアクセス時間を覚悟しなければならないでしょう。
こうしたことから、パソコンの世界では、フロッピーよりも大容量でより高速にアクセスできる、CD(コンパクトディスク)や、HDD(ハードディスクドライブ)、MO、DVD、フラッシュメモリへと記録媒体の主軸が移って行きました。
 
 
▲ フロッピードライブ(FDD)メーカ生産撤退の動き加速  (2009.07.28)(2010.07.10追記)
2009年7月27日付の朝日新聞では、フロッピーディスク駆動装置(FDD)メーカ主要3三社(ティアック、ワイ・イー・データ、ソニー)が製造を終了する方向で調整に入っているという記事を掲載していました。
フロッピーディスクの最大供給会社であったソニーも2009年9月に駆動装置の製造は終了し、中国でディスクの製造を行っていました。
それも2011年3月に打ち切りFDD事業の完全撤退をすると発表しました。
3.5型のFDDは1984年からコンピュータに搭載されはじめ、Windows95が発売される1995年がFD需要のピークであったそうです。
そういえば、私が最初にパソコンを買った1993年、マッキントッシュ(LCIII)には3.5型のフロッピードライブがついていて、15枚のフロッピーを入れ替え差し替えしてOSを入れた記憶があります。
この時期はまだ、CDがパソコンに標準で搭載されていなかったのです。
そのFDDも2009年では最盛期の1/30にまで生産規模を縮小して、需要は企業向けのオプションに限られてしまったそうです。
1967年のフロッピー開発から43年を経て、その命を全うしました。
     
 
【Jaz、Zip、Bernoulli(じゃず、じっぷ、べるぬーい)】
フロッピーが容量不足となっていく1990年後半、メガバイトクラスのリムーバブルメディアの要求が高まっていました。
そんな中で登場したのが、米国のIOmega社の開発した Jaz、Zip、Bernoulli です。
アイオメガ社は、米国カルフォルニア州サンディエゴ市で1980年に設立されたコンピュータ周辺機器の会社です。
2008年4月にEMCに買収されました。
IOmega社が開発した磁気ディスク商品の年代順番は、
Bernoulli (1983) → Zip(1994) → Jaz(1995)
となります。
現在では、これらの名前を聞くことも少なくなりましたが、1990年代にあっては、一躍スポットを浴びたメディアです。
しかしながら、この製品も安価で信頼性が高いCDやDVDとの競争の憂き目にあい、現在は一部のユーザが使うのみとなりました。
2008年の時点では、BernoulliもJazもありません。
CDやDVDがコンピュータの標準メディアとなって本体に直接内蔵されるようになったのに対し、これらの製品は標準装備となることはなく、周辺機器としての位置づけに終始しました。
フロッピーディスクの歴史をみて見ると、8インチの128kBのフロッピーディスクが1970年にIBM社のアラン・F・シュガートによって開発されて、13年後の1983年にアイオメガ社(IOmega)が大容量のフロッピーディスク(Bernoulli)を出したことになります。
同じ頃(1982年)には、業界標準となる3.5インチのハードケースに入ったフロッピーディスク(280kB)が日本のソニーから発売されます。
この時期にアイオメガ社は、50倍のデータ容量を持つフロッピーディスクを完成させたのです。
 
▲ Jaz(1GBのリムーバブルハードディスク)
Jazドライブは、IOmega社が1995年に開発した1GB容量のリムーバブルハードディスクです。
1998年2月には、2GBが発売されました。
しかし、4年後の2002年に製造を中止しました。
JazとZipとの違いは、Zipがフロッピーディスクベースであったのに対し、Jazはハードディスクであったことです。
Jazドライブは、構造がハードディスクなので同時代のMOやZipより読み書きが格段に速く行えました。 1995年当時は、OSがWindows95になりパソコンのシステムが巨大化し、インターネット時代に突入してメガバイト容量のメディアの要求が高まっていました。
これに呼応するように、いろいろなメディアが開発されて覇を競っていました。
そんな中にあって、CDと小型ハードディスクが市場を駆逐して行ったため、Jazは撤退を余儀なくされました。
Jazドライブは、ハードディスク方式を基本として、しかもプラッターを抜き差しするという方式(ヘッドは固定装置に内蔵)のためか、信頼性に乏しく、トラブルが多くて使用に差し障りがありました。
Jazは、プラッタ表面にゴミが付着する危険性が高いリムーバブルデスクで、5,400rpmもの高速回転によって、1umの距離に置かれたヘッドとプラッタのクリアランスは大丈夫なんだろうかという疑問がわきます。
ちなみに、各種メディアの回転数を較べてみると以下のようになります。
 
・ Jaz: 5,400 rpm
・ Zip: 2,945 rpm
・ Bernoulli Box: 3,000 rpm
・ フロッピーディスクドライブ: 360 rpm
・ MO: 3,600 rpm〜6,700 rpm
・ CD: 200 rpm〜5,300 rpm
・ ハードディスクドライブ: 4,200 rpm〜15,000 rpm
 
レーザ光をピックアップに使ったメディアは、ピックアップとのクリアランスが比較的広く取れるので回転数を上げても安全のような気がしますが、ヘッドとプラッターの距離が極めて近い磁気ディスクでは、ホコリやモータの振動、軸受けなどの対策をしっかりと行う必要があるように思われます。 IOmega社にあっては、Jazの信頼性を向上させる方向には向かわず、製品の生産をストップさせ、フロッピー方式のZipに軸足を移していた感じを受けます。
 
▲ Zip(フロッピー感覚の大容量ディスク)
Zipドライブは、IOmega社が1994年に開発した取り外し可能な磁気ディスクによるメディアシステムです。
フロッピーディスクと同様の感覚で取り扱え、しかもデータ容量が多いのが特徴でした。
ディスクの大きさは、3.5インチであり、形状も3.5インチフロッピーディスクに似ています。
開発当初のディスクは、100MBであったものが、後に250MB、750MBに増えました。
データの転送速度は1MB/秒で、シークタイムが28msであり、1.44MBのフロッピー(62.5KB/秒、シーク0.2秒)に較べ1桁以上の高速アクセスができました。
Zipシステムの開発の前身に、ベルヌーイディスク(Bernoulli Box system)がありました。
 
▲ ベルヌーイ(Bernoulli)(最初のリムーバブルディスク)
Bernoulli Box Systemは、米国IOmega社が1983年に開発したリムーバブル磁気ディスク(5.25インチ、10MB)です。
日本にはほとんど輸入されませんでしたが、米国では結構使われていたようです。
1980年代、大容量のメディアはそれほど多くの種類があったわけではなかったので、このメディアは出色でした。
このメディアは、3.5インチのフロッピーディスクと外観は似ていましたが、大きさは5.25インチでした(巾136mm x 長140mm x 厚9mm)。
このサイズに35MB〜230 MBの容量を載せていました。
このメディアの面白い所は、ペラペラのポリエチレンテレフタレート(PET)製フロッピーディスクを高速で回転させて(3,000rpm)、高速流体回りに起きる気流の陰圧を利用して固定ヘッドに吸い付かせる(しかし接触しない)機構を取り入れたことです。
ヘッドとフロッピーの間は、気流が介在するために決して接触せず1ミクロンの間隙を形成します。
ハードディスクドライブが、ヘッド部と接触状態から気流で浮揚(0.03um)させているのに対し、ベルヌーイボックスはデスクを湾曲させて近づけています。
ディスクの回転が止まれば気流が止まり、フロッピーも元の位置に戻るので固定ヘッドとの距離は自動的に離れる構造になっていました。
従って、ベルヌーイボックスではハードディスクドライブで必須であったリトラクト(ヘッドをプラッターから離す機構)の必要性がありませんでした。
この方式は、オランダ・スイスの天才数学者ファミリーの一人であるダニエル・ベルヌーイ(Daniel Bernoulli:1700.02〜1782.03)の発見したベルヌーイの法則を応用しています。
そのためメディアの名前もベルヌーイと名づけられました。
このメディアが、日本でなぜ普及しなかったのかはよくわかりませんが、ベルヌーイが登場した同時期に日本ではMO(光磁気ディスク)が開発されたために、日本ではこちらが支持されたものと考えられます。
理論的には安定している構造でしたが、実際は、読み込み時のトラブルがかなりあり、CDの簡便さと安さには太刀打ちできませんでした。
     
【ハードディスクドライブ(HDD)】  (2007.11.25)(2008.10.24追記)
ハードディスクドライブ(HDD = Hard Disk Drive)は、フロッピーディスクドライブに相対する装置として登場しました。
フロッピーディスク装置のスペースと電気信号(データ信号)に互換を持たせて、装置を簡単に入れ替えられるような設計思想を持っていました。
ハードディスクの記録媒体の構造は、フロッピーディスクのように薄くてペラペラの磁性体ディスクと違って、ディスクに鏡面加工を施したアルミ基板、もしくはガラス基板になっていて、この表面に酸化鉄磁性体を塗布したものを使っています。
開発元であったIBM社は、これをHDDを固定ディスク(Fixed Disk)と呼んでいます。
ハードディスクドライブは、大容量の記録媒体として開発され発展して来ました。
初期の開発は、大型コンピュータ用の外部記録用でしたが、パソコンの発展と共に小型大容量化、高速アクセスなどを可能にした製品が市販化されました。
HDDは、現在(2010年)にあってもパソコン、ワークステーションにおける最強の記憶装置として君臨しています。
コンピュータのデジタル記憶装置として生まれたHDDは、大容量、高速アクセス、安価である特徴が認められ、ビデオカメラの記録装置、家庭ビデオレコーダの記録装置、カーナビゲーションの記録装置、携帯用音楽再生装置として活躍の場を拡げています。
 
▲ 磁気ディスク
ハードディスクの構造は、フロッピーディスクと大所は同じです。
磁気ディスク面に磁気記録されたデータを磁気ヘッドを使って読み書きするという方式は変わりません。
しかし、HDDはフロッピーディスクドライブと較べて、データのアクセスが桁違いに速く、容量も大きくて扱いも大変楽です。
その分、開発や製造の難しさも桁違いであったと思います。
技術開発問題の一つは、磁気ヘッドと磁気ディスク(プラッター、platter)のギャップです。
両者は、近接して高速アクセスするので信頼性や耐久性が大きな課題でした。
しかし、その耐久性も信頼性も向上して、振動や衝撃が加わる携帯音楽プレーヤにも自動車のデータ記憶装置にも搭載されるようになりました。
磁気ディスク装置は、1980年までは大型計算機の外部記憶装置として大きなラックに組み込まれて大電力モータを使って運用されていました。
初期のもの(1970年まで)は、磁気ドラム装置(Magnetic Drum Memory)でした。
磁気ドラムは円筒状のドラム面に磁気コーティングを施してドラム面に配備された複数の磁気ヘッドでデータを読み書きするものです。
磁気ヘッドは、ハードディスクドライブのようにスウィングアームによって可変するものではなく固定となっていて、ドラムだけが回転してデータを読み取っていました。
構造はシンプルでしたが、ドラムが大きくてその割には3MB程度の容量しかありませんでした。
その後、磁気記録面は円筒形状からディスク形状に変わり、それが何枚も重なった磁気ディスクに変わりました。
この装置は、800MB程度の記憶容量をもっていました。
かって、大型計算機室に配備されたキャビネットラックの多くは、この磁気ディスク装置でした。
そんな大きな磁気ディスク装置が、手の平に載るぐらいのコンパクトなものになったのです。
コンパクトな設計思想のバックグランドには、フロッピーディスクの開発技術があったことは否めません。
 
▲ 最初の小型ハードディスクドライブ
現在まで続いている小型HDDの原形は、1980年に開発されました。
小型HDDは、フロッピーディスクを開発したIBM社の元製造部門のマネージャであったAlan Shugartが開発しました。
彼は、フロッピーディスクを作るために 1973年にShugart Associates社(1977年 Xerox社に買収)を創設し、今度は、HDDを作るために同社を退社して、1979年に仲間のFinis Conner(1943.07〜)とShugart Technology社を設立しました。
最初の会社も、2番目の会社も自分の名前を冠しました。
Shugart Technology社は、そのShugart Associates社から"Shugart"という名前は紛らわしいから使ってはならないと言うクレームをつけられたので、同年、会社名をSeagate Technology と改めています。
最初のHDDは、ST-506と呼ばれた小型HDDでした。
ST-506は、5MBのデータ容量を持っていてフロッピーディスク装置と同じインタフェースで制御することができました。
これは、パーソナルコンピュータに実装するのに非常に楽な設計思想でした。
フロッピー装置に置き換えて、そのスペースにHDDを組み込めばそのままパソコンで使えたのです。
ST-506のハードディスク(platter)は、5.25インチ(133.35mm)の大きさで、フロッピーデスクと同じ大きさでした。
ハードディスクドライブ装置も、フロッピーディスクドライブ装置とほぼ同じ大きさに似せて作られ、装着の互換性を良くしました。
これらのことから、Seagate Technology社は、フロッピーディスクドライブをかなり意識して、技術もFDDを踏襲したと考えられます。
もっとも、フロッピーディスクもハードディスクも同じShugart氏が構想して開発したものなので、同じコンセプトになるのは当然です。
ST-506のデータ転送速度は、最大625KB/秒でした。
この速度は、フロッピーディスクドライブの40倍の速度を持っていました。
このデータ転送速度は、当時、十分な速度を持っていたために、瞬く間に記憶媒体の主流となりました。
ハードディスクドライブは、記憶容量が大きい媒体分野で当時主流であった磁気テープ方式と比べて、ランダムアクセスできる点が大きな強みでした。
データファイルを追記で保存したり、読み出すことが楽にできるのです。
このハードディスクドライブを、高速でデータ読み書きできることを可能にしたのは、高速データ転送方式(インタフェース)の開発です。
彼らはこの目的のために、1981年、Shugart Associates System Interface(SASI、後にSCSI = Small Computer System Interface、スカジー)というインタフェースを開発します。
この方式は、ギガバイトベースのイーサネットやUSB2.0が登場する2000年までの高速データ通信インタフェースの代名詞となったものです。
ハードディスクドライブは、当初、ディスク口径が5.25インチサイズ(133.35mm)のものから始まり、8インチ(203.2mm)のものも開発されましたが、開発の流れは小さい口径に向かい、3.5インチ(88.9mm)が主流となっていきます。
さらに、徐々に小型化に移行して、2.5インチ(88.9mm)、1.8インチ(45.7mm)、1.3インチ(33mm)、1インチ(25.4mm)まで小さくなっていきました。
小型になると、保存容量も小さくなります。
従って、小容量、小型HDDでは、近年、発展が著しい半導体メモリ(フラッシュメモリ)と競合するケースも増えてきています。
 
▲ ハードディスクドライブのクリアしなければならない問題点
ハードディスクドライブ装置が小型高速化になるにつれてクリアしなければならない点の一つに、可動部を少なくした信頼性の高いムーブ機構の採用があります。
テープレコーダがフラッシュメモリに代わってきているのも、機構部が少なくて故障が少なく小型コンパクト、安価にできるからでした。
フラッシュメモリは、現在(2009年)急速にシェアを拡大しています。
しかし、100GB以上のメモリ容量を要求される目的や、価格、耐久性などの観点からは(フラッシュメモリは書き込み回数に制約がある)、未だHDDの需要は大きいと言えます。
ハードディスクが開発された当初は、故障が多くありました。
ハードディスクのクラッシュは、交通事故かガンの告知のような感覚で扱っていました。
いずれいつか、自分のパソコンにもそうした不具合が起きるのではないかと恐怖を抱きながら、大切なデータのバックアップを他のメディアにとっておられた方も多いと思います。
信頼性が増したハードディスクドライブではあるものの、構造上、耐久性に関していまだ問題も多いのが実情です。
「ハードディスクは壊れるものだから、その認識と対応を日頃から取っておけ」、というのが一般的な見識のようです。
私自身、ハードディスクドライブを使ったパソコン生活を続けて25年近くなります(2020年時点)。
フロッピーだけでパソコンを立ち上げていた時代に較べると、立ち上げやデータのアクセスが随分と楽になりました。
今まで、20個ほどのハードディスクドライブにお世話になって来たでしょうか。
幸いなことに、それらのハードディスクはすべて順調に機能してくれました。
一日中コンピュータを動かし続けている間、ハードディスクもせっせと回っていてくれたはずです。
それを3年の間(だいたい3年でコンピュータが古くなるので交換してきた)、ずっと回り続けてアクセスし続けてくれました。
たいした耐久力と性能と言わねばなりません。
車や飛行機に乗って持ち歩いたノートパソコンでも、ハードディスクが壊れた経験はありません。
ノートパソコンの場合、HDDよりもディスプレイが壊れることが多かったと記憶しています。
また、アップルが発売したハードディスク内蔵のiPod(2001年11月発売、5GB HDD)の成功は、ハードディスクの堅牢性と信頼性をいやが上にも高めたと言えましょう。
全世界で1億台以上のiPodが売れました。
その内の半分以上がハードディスク内蔵製品だと思います。
iPodの普及によって、HDDの耐久性が実証されたのです。
大したことだと言わざるを得ません。
もっとも、iPodも3年程度でモデルが代わったりバッテリの寿命が来たりで、それ以上使っている可能性は低いので、ハードディスクの故障が大きく問われることが少ないのかも知れません。
だから、iPodはハードディスクにとっては渡りに船のような環境かもしれません。
私自身、iPodは半導体メモリのモデルしか持っていませんが、家族のものや知人の話を聞く限り、ハードディスクが壊れたという話は聞きませんでした。
iPodの場合、バッテリが弱って充電に時間がかかるようになり、モデルも古くなったので買い換えるケースがほとんどでした。
パソコンのハードディスクに関しては、友人や会社の仲間の体験を加えると、ハードディスクのクラッシュに遭遇した例を何回か聞きました。
従って、ハードディスクのクラッシュは、本当に交通事故に遭遇するようなもので、いつ自分の所に降りかかってくるのかわからいと思うようになりました。
いろいろな意見を総合したり、自分の経験から言うと、ハードディスクの寿命は5年が限度であり、それを境に新しいハードディスクにデータを移し替えることが望ましいと言えましょう。
また、ハードディスクが壊れてもバックアップがとれるRAID(レイド、Redundant Arrays of Inexpensive Disks)も個人ユーザでできる価格帯になったので、そうした機能を母艦パソコンに設備するのが賢明と言えます。
 
■ ヘッドとプラッターの間隔
ハードディスクドライブのプラッター表面には、磁性体上にライナーと呼ばれる潤滑剤が塗布されています。
ライナーは、磁気ヘッドがプラッターを移動するときに役立つものです。
磁気ヘッドは、ディスクが回転していないときはプラッターと接触しています。
ヘッドアームはバネによって予圧がかけられプラッタに押しつけられています。
ディスクが回転してしばらくの間、ヘッドはプラッターを擦っていることになります。
回転が上がるに従って、プラッタと一緒に回転する気流によってヘッドが浮揚するようになります。
この間隙(ヘッドギャップ、フローティングハイト、フライングハイト)は、わずか10nm〜30nmと言われています。
これは光の波長よりも遙かに短い間隙です。
この間にホコリが入ったりプラッタにホコリが付着したらひとたまりもない距離です。
ハードディスクドライブを長年使っていると、プラッター表面のライナーが劣化し、ヘッドがプラッターと接触し衝突するという事態に発展します。
これが起こると、ディスクはクラッシュして寿命が尽きることになります。
考えただけで恐ろしいことですが、ハードディスクではいずれ起こることです。
ハードディスクのもう一つの問題として、ヘッドとプラッタが張り付いてしまう「張り付き」という問題があります。
プラッタは非常に精度よく磨かれた鏡面になっていて、ヘッドも同様に鏡面加工されています。
両者が静止した状態で接触すると、分子間作用で強い吸着現象がおきます。
ハードディスクの初期の頃(1980年代)は、停止命令を送るとヘッドがプラッタから待避する機構がつけられていましたが、部品点数削除による製造原価低減から、この機構が取り除かれてしまいました。
そうすると、ヘッドはプラッタに置かれたまま電源が切れることになり、「はりつき」が起きるようになりました。
こうした問題を解決するために、パソコンの「OS」からハードディスクに待避命令を送ったり、ハードディスク側でヘッドを自動的に待避領域に戻す機構が再び復活するようになりました。
 
■ 軸受け
ハードディスクが連続して長期間回り続けていて心配になるのは、プラッタを支えている軸受けの耐久性と装置内部の気流温度の上昇です。
プラッタを支える軸受けは、ボールベアリング式と流体動圧軸受(Fluid Dynamics Bearing、FDB)の2つの方式があり、最近のものは流体動圧軸受が主流です。
流体動圧軸受は、軸を潤滑油で保持する方法で、高速回転体の軸受によく使われています。
潤滑油は、軸の回転と共に軸受け部で流動を始め、潤滑油の流動圧力(動圧)によって軸を軸受けから浮かすような構造になっています。
回転がないときは、動圧は働かないので軸は軸受けにメタル接触していることになります。
また潤滑油の温度も上がっていず静止しているので粘性が高く、ハードディスク起動時にはモータに強いトルクが必要となります。
もし、モータが劣化したり潤滑油の粘性の劣化で起動時に強いトルクが得られない場合は、ハードディスクが回らなくなるという不具合がおきます。 ハードディスクを長時間作動させていると、当然ながら熱を発生させます。 熱の発生源は、ディスク内を回る気流の発熱、モータの回転発熱、軸受け部の発熱、外部温度による加熱などが考えられます。
ハードディスク内はホコリを特に嫌いますから、外部からホコリが入らないように密閉構造になっています。
しかし完全密閉にすると気流の温度によって内部圧力が変わりヘッドとプラッタ間のギャップに変化が出てきます。
そうした不具合をなくすために、ハードディスクには一箇所だけ小さな空気取り入れ口をもうけて、ディスク内の圧力を一定にする配慮がなされています。
     
 
▲ 磁気記録方式  - 水平磁気記録方式
(面内磁気記録方式、Longitudinal Magnetic Recording、LMR)と   垂直磁気記録方式(Perpendicular Magnetic Recording、PMR)  (2010.07.30記)(2010.08.20追記)
 
垂直磁気記録方式は、新しいタイプの磁性体の高密度記録方式です。
デジタル記録方式として、HDD(ハードディスクドライブ)に採用されています。
この方式は、1976年に岩崎俊一氏(1926.08〜: 東北大学電気通信研究所)が提唱を始め、 2005年に東芝が小型HDD(1.8型HDD、80GB、サイズ:54mm x 78.5mm x t8mm、重量:62g)での実用化に成功しました。
2011年にあっては小型HDDのほとんどがこの方式を採用して、高密度記録のハードディスクドライブ製品を販売しています。
従来の磁気記録は、水平記録方式(Longitudinal Magnetic Recording, LMR)と呼ばれるもので、磁極(S極とN極)が磁性面に拡がって記録されていました(右図)。
垂直磁気記録方式(Perpendicular Magnetic Recording, PMR)では、S極とN極を垂直状態で記録しています。
なおかつ、記録スポットも小さくしています。
従って、垂直磁気記録の方が記録密度を3倍程度向上させることができ記録容量を増やすことができます。
磁性体に磁極を縦に打ち込む、というのがこの記録方法のキーポイントです。
水平(面内)磁気記録では、高密度記録を行おうとすると「熱ゆらぎ」(superparamagnetic effect)問題が浮上し、磁気記録が消失してしまう不具合がありました。
磁気記録装置の高密度化を達成していく上で、垂直磁気記録は福音となりました。
ただ、垂直記録はデジタル記録に向いており、オーディオのようなアナログ記録では従来の水平磁気記録の方が特性が良いとされています。
垂直磁気記録は、高密度デジタル記録に向いてはいるものの、実用化には長い年月がかかりました。
実用化の大きな障害は以下のものでした。
 
1. 高密度で垂直に磁気記録を行う技術の確立
     - 新タイプの磁性体の開発と、垂直磁気ヘッドの開発。
2. ノイズとの戦い
    - 垂直磁気記録は磁性体の持つノイズが多かった。
      新タイプの磁性体の開発。
3. スパイクノイズ
    - 垂直磁気記録に特有の再生時に発生するノイズ。
      新タイプの磁性体の開発。
4. 広域イレーズ(WATER; Wide Area Track ERasure)
    - 記録時に、記録ヘッド主磁極から数十倍(数〜
      数十ミクロン)離れたトラック信号が減衰または
      消失してしまう問題。
      新タイプの磁性体の開発。
 
■ PMR用磁気ヘッド
垂直磁気記録を行うには、あたらしく磁気ヘッドを開発する必要がありました(右図参照)。
垂直磁気記録用の磁気ヘッドは従来のものに比べて構造に大きな違いが見られます。
従来の水平磁気記録ヘッドは、リングヘッドと呼ばれるものでギャップに発生する磁界の作用で磁気記録面を磁化させていました。
垂直磁気記録では、記録を垂直に行う関係上ヘッドを単極構造として磁界を垂直に発生させています。
この磁気ヘッドはとても小さいもので微細化技術が確立されて初めて実用化されました。
 
■ PMR用磁性体 垂直記録には、新しいタイプの磁性体の開発が不可欠でした。
磁性体は1960年代から金属蒸着法が開発されて主流となっていきます。
メタル磁性体は、支持母体(アセテートフィルム、アルミ基板、ガラス基板)に磁性体金属材料をスパッタによって蒸着させるものです。
この方法は、非常に薄い磁性体膜を形成することができます。
垂直磁気記録では磁極を縦に配列させる関係上、磁束を垂直に形成しなければなりません。
そのために、磁性記録媒体はこれまでのものとは構造が異なったものが求められました。
右図が垂直磁気記録媒体の構造図です。
この図からもわかるように、この記録媒体は二つの磁性体膜で構成されています。
一つが垂直磁化膜と呼ばれるもので、もう一つが磁性裏打ち層(軟磁性磁化膜、SUL = Soft Under Layer)と呼ばれるものです。
厚さ約0.8umの垂直磁化膜は、カラムと呼ばれる柱状の結晶構造体で形成され、小さな磁石を形作っています。
カラムは、8nm〜10nm径の大きさをもったものでCoを主成分としています。
この膜は、コバルト(Co)とクロム(Cr)をCo:Cr=4:1の割合で配合しRFスパッタ(Radio Frequency Sputter)によって蒸着を施すことによって、このような結晶構造が出来上がるそうです。
この構造は、垂直磁化を行うのに極めて都合の良い構造でした。
カラムは、磁性の強いCoの結晶で出来ていて、その周りを非磁性のCrが取り囲む構造となっているため、カラムは小さな磁石となります。
磁性裏打ち層(軟磁性磁化膜)は、垂直記録する際に磁界を安定させる働きがあります。
これがないと磁気ヘッドを記録媒体に挟まなければなりません。
このような磁気ヘッドは実用上不可能に近いので、磁性を垂直に打ち込んでなおかつ安定させるための工夫、すなわち磁性裏打ち層が必要だったのです。 
   
 
▲ RAID(レイド、Redundant Arrays of Inexpensive [or Independent] Disks)
ハードディスクは壊れるもの、という観点に立って、ディスクが事故によって壊れてもバックアップハードディスクで障害を復旧するシステムが構築されました。
それがRAIDと呼ばれるシステムです。
このアイデアは、1988年、カルフォルニア大学バークレー校のDavid Pattersonによって提唱されたものです。
このシステムは、ハードディスクを2台以上使ってデータを分散保存させ、1台のハードディスクがクラッシュしても別のディスクに保存されたデータをバックアップとして使うというものです。
RAIDは、データの分散処理を基本思想としているため、データの安全保存の観点と、データの高速処理を行うことを目的に使われています。
RAIDは、ハードディスクの構成(ハードウェア)とディスクを管理するソフトウェアから成り立っていて、ユーザの要求するレベルよって7段階に分かれています。
最も簡単なRAIDシステムが、RAID0とRAID1と呼ばれるものです。    
タイプ
ハードディスク数
特  徴
RAID 0
2台〜
耐故障性のシステムではなく、高速読み書きを目的としたシステム。 並列処理するので高速のデータの読み書きが可能。 2台以上のハードディスクにデータを分散して書き込む。RAID本来の目的ではないため「0」レベルが与えられている。
RAID本来の目的ではないため「0」レベルが与えられている。
RAID 1
2台〜
ミラーリング機能。 複数台のハードディスクに同じ内容のデータを書き込む。
もっともシンプルな構成。
RAID 5
3台〜
RAIDシステムの主役的存在。 データを巧妙に複数のハードディスクに分散させ、 かつデータをブロック毎にわけ誤り訂正機能を充実させている。
迅速なバックアップ処理ができる。
RAID 0 +1
4台〜
RAID0とRAID1の双方の機能を持たせたシステム。 高速性と耐故障性を持たせたシンプルなシステム。
ハードディスクは最低4台必要。
 
RAID 0では、高速読み書きのシステムとなっていて、分散してデータの読み書きをします。
このレベルのものは、データを2重に保存しないので、障害復旧としての機能はありません。
障害復旧を目的としたバックアップシステムは、RAID 1が最も単純で、2つのHDDに同じデータを保存する機能になっています。
RAIDを構築するには、ハードディスクドライブを管理するソフトウェアと複数のハードディスクを購入します。
市販品では、さまざまのRAIDシステムが供給されていて、管理ソフトとHDDを組み合わせたパッケージで販売しています。
HDDはモジュールで交換できるようになっていて、不具合が生じた場合、管理ソフトウェアが警告を出して、新しいものと交換を促すようになっています。
こうしたことからも、ハードディスクドライブは、現在(2009年)も、高速、大容量、バックアップメモリとして現役で使われていることが理解できます。
     
 
【磁気ディスクのファイルシステム(FAT、NTFS、HFS)】  (2010.05.20記) (2010.06.23追記)
コンピュータ、特にパーソナルコンピュータの普及に伴ってフロッピーディスクやハードディスクなどの磁気ディスク装置がたくさん開発されてきました。
磁気記憶装置は、コンピュータのOS(オペレーティングシステム)で管理されるもので、保存形式の規格(ファイルシステム)はOS毎に作られてきました。
ディスクの物理的な割り振りはセクタ(sector)と呼ばれる細切れの記憶単位で構成されますが、そのセクタをファイルとどのように関係づけて簡単に読み書きできるようにするかがOS(Operating System)の役割の最も大きな一つでした。
パーソナルコンピュータに使われているOSの大きな流れは、マイクロソフト社のMS-DOSとWindows、アップル社のMacOS、それにUNIXがあります。
この流れに沿って多くのファイルシステムが規格化されて使われてきました。
我々が使うコンピュータはWindowsかMacであるので、この項ではこうしたパーソナルコンピュータで良く使われてきた3種類の規格(FAT、NTFS、HFS)について述べたいと思います。
 
■ FAT(File Allocation Table)
FAT(ふぁっと)は、マイクロソフト社がOSを作り始めた1970年代にできたもので、MS-DOSとWindowsの成功によって今日まで使われている最も有名な標準フォーマットです。
このフォーマットに従って、MS-DOSやWinodwsで動くコンピュータのハードディスクやフロッピーディスクのファイル構造が作られ、データの書き込みが行われていました。
ディスクにデータを格納する手法は、IBMがフロッピーディスケットを開発した当時の構造と基本的には変わりません。
FATは、そうした物理的なフォーマットをもとにして、データファイルをより効率的に高速且つ確実に読み書きできる管理プログラム(台帳)でした。
コンピュータの高性能化と取り扱うデータ容量の大容量化に伴って、以下の4種類の拡張がなされてきました。
 
・ FAT (= FAT12) - 1977年
・ FAT16   - 1987年
・ FAT32  - 1996年
・ exFAT - 2006年
 
▲ FAT12
FATは、パーソナルコンピュータに使われた一番最初のファイルシステムで、ビル・ゲイツとマーク・マクドナルドによって1977年に開発されました。(IBM-PCが発売された1981年の4年前のことです。)
マイクロソフト社が、DISK-BASICの管理仕様の中で取り決めた規格です。
この規格では、12ビットカウントのクラスタ(cluster)でデータ管理されていたので、ディスクは4,084個のクラスタで構成されていました。
本来、12ビットカウントですと4,096個の管理ができます。
そのうちの12個は管理用に割り当てられるため、有効なデータ管理数は4,084個となりました。
クラスタはOSが管理するディスクデータの「まとまり」であり、方やディスクはセクタと呼ばれる記憶単位(小部屋)を持っています。
クラスタは、セクタ(小部屋)のさらに大きなひとまとまりという位置づけで良いでしょう。
セクタだけだとあまりに大きなカウント数になってしまうため、セクタを束ねるクラスタの概念を導入して記憶容量の大小によりクラスタの大きさを変えてOSの管理できるカウント数にしたのです。
クラスターは、別名アロケーションユニットサイズ(allocation unit size)とも呼ばれ、マッキントッシュ(HFS、HFS+)ではこの言い方を使っています。
クラスタは、OSがファイルを管理するための1ブロックであるため、文書や画像ファイルの大きさによって複数のクラスタが割り当てられました。
1つのクラスタには、Windows9xの場合、512バイト〜32kB( = 32,768 B、64セクタ分)が組み込めます。(セクタ管理なので、512 x 2n、n = 0〜6 の飛び飛びの値となります。)
クラスタは1セクタであることもあり、64セクタであることもありました。
ディスクには、物理的に部屋割りされているセクタがあり、これは512バイト( = 29 バイト = 29 x 23 = 212 ビット)と決められています。
1セクタは、フロッピーディスケットが開発されたときに、パンチカード1枚分の情報量(128バイト)と決められていましたが、MS-DOSの時代に512バイトとなりそれが標準規格として長く続きました。
フラッシュメモリで2011年1月から発売されるものについては、セクターサイズを4096バイトと大きくして、画像や音楽ファイルのアクセスをしやすくするようになっています。
これはメモリが大容量化してファイルサイズも大きくなってきていることへの対応です。
クラスタの大きさは、ディスクの容量によって最適なセクタ数が定義されます。
クラスタサイズが小さいとディスク容量を大きくすることができません。
クラスタサイズが大きいと読み書きが速くなる反面、容量の小さいディスクでは総クラスタ数を多く取ることができず、たくさんのファイルを保存できなくなります。
この兼ね合いでクラスタサイズは決められます。
1990年代に使われていたフロッピーディスクの場合は、1クラスタが1セクタ( = 512バイト)となっていました。
OSによるデスク管理は、CPUが16ビットの場合には総セクタが216 = 65,536までしか管理できず、1セクタが512バイトですから、最大容量が33.5MBまでとなります。
これが16ビットCPUで管理できるデータ容量の限界です。
このセクタ数と最大容量の制約の中で、12ビットカウントによるクラスタ管理が行われました。
1980年当時の33.5MBの容量は十分なものでしたが、時代と共にこのデータ管理では手狭になったためFAT16が規格されました。
FAT12で扱うファイル名は、8文字の英数字と拡張子3文字で構成されました。
このフォーマットは、主にフロッピーディスクで使われました。
しかし、磁気ディスクが一般的になってくると、これでは手狭になりました。
 
■ フラグメンテーション(fragmentation)
記憶装置へのデータ保存が、上で述べたようなクラスタと呼ばれる区割りで行われるため、8セクタ(= 4kB)を1クラスタとして構成される磁気ディスクでは、FAT12は総合計16.73MB容量となります。
この磁気ディスクに1kB容量のデータを記憶する場合、ファイルは1クラスタ単位でしか保存できないので、磁気ディスクには1クラスタ = 4kBが割り当てられます。
100kBのデータには25クラスタが当てられます。
このようにしてデータをクラスター単位で割り振るために、小さなファイルを消去して大きなファイルを記録しようとすると消去した小さいファイルに入らなくなります。
この場合、別に大きな記憶領域があればそこにデータが保存されますが、ない場合には空いたクラスタを見つけて別々に保存します。
また、ディスク内にはうまく詰め込めなかった小さな空いたクラスタも点在するようになります。
これが断片化(フラグメンテーション)です。
断片化がおきると、ファイルを読み出すときに時間がかかるようになりアクセスが遅くなります。
このようにして分散化してしまった関連データのクラスタを効率よく再配置するのがデフラグ(defragmentation)です。
 
▲ FAT16
FAT16は、1987年にDOS3.31で管理できるフォーマットとして作られました。
データを管理するアドレスが初期の12ビットから16ビットとなりました。
16ビットとなったことにより、総クラスタは65,517個となりFAT12より16倍に増えました。
クラスタは、FAT12と同じで512バイト〜32kB( = 32,768B)での設定となっていました。
ディスク自体は、16ビット規格で割り振られますのでボリュームは最大2GB( = 32kB x 216)となります。
つまり、2GB以上のハードディスクはこのフォーマットでは認識できないことになります。
FAT16は、Windows95まで使用され、Windows98からは32ビット対応のFAT32となったため、 以降、Windowsのディスク管理はFAT32が主力となりました。
FAT16の後期には、ファイルネームが従来の英数字8文字だったものから255文字まで使用できる規格になりました。
日本語などの2バイトを使用する名前については、16文字まで使用できました。
この機能が使えるFAT16をVFAT(Virtual FAT)と呼んでいました。
 
▲ FAT32
FAT32は、1996年にWindows95以降で管理できるフォーマットとして作られました。
データを管理するアドレスが32ビット(実際は、4ビット分は予約に割り当てられるので28ビット)となりました。
このため、ハードディスクを管理できるボリュームが2TBまで拡張されるようになりました。
FAT32は、Windows95、Windows98、WindowsMeでよく使われましたが、Windows2000/XPでは以下に述べるNTFSが主流となりました。
NTFSは、WindowsNTで開発されたフォーマットですが、信頼性や機能性、安定性が優れていることからFAT32よりもNTFSが使われることが多くなりました。
USBタイプのフラッシュメモリにはFATが採用され、小容量のものはFAT16、16GBなどの大容量にはFAT32が採用されています。
この方式の採用によりMacintoshでもWindowsXP/Vista/7でも双方で使えるようになっています。
ちなみに、WindowsXPで標準採用されているNTFSは、Macintosh(Mac OSX)からでは直接アクセスができないため(読み込みはできるが、書き込みはできない)、データの書き込みはネットワーク経由で行うか、一旦FATによるディスク(フラッシュメモリ)に書き込んで処理する方法が取られています。
 
▲ exFAT(extended File Allocation Table)
exFATは、大容量化するフラッシュメモリを管理するフォーマットとして2006年に作られました。
これは、Windows Embedded CE(携帯用端末装置)向けに開発されたものです。
携帯用端末装置のOS向けに規格化されたものとはいえ、64ビット対応であるため、扱えるデータ容量(ファイルサイズ)は最大16EB(エクサバイト)(16E18バイト = 264バイト)に及びます。
exFATではボリューム全体を最大ファイルサイズにあてることができますので、最大ボリュームサイズは16EB(エクサバイト)となります。
クラスタサイズも理論上2255セクタまで定義でき、実装上は1クラスタを32MB( = 225 B)までとすることができます。
非常に大きなクラスタを確保することができます。
exFATは、WindowsVISAにも導入されました。
WindowsXPには基本的には対応しておらず、Windows XP SP2/SP3にてマイクロソフトが公開しているexFAT対応の更新プログラムを適用する必要があります。
アップル社のMacintoshからのアクセスもできません。
また、このファイルシステムは、内蔵ハードディスクには対応していません。
 
■ NTFS(NT File System)
このフォーマットは、WindowsNT用に作られたフォーマットで1993年に規格化されました。
同じマイクロソフト社の開発品であるのにFATとの互換性はありませんでした。
つまり、このフォーマットで管理された磁気ディスクはMS-DOSやWindows95搭載のパーソナルコンピュータでは使えなかったのです。
このフォーマットは、マイクロソフトがサーバーなどの基幹OSであるWindowsNTを開発したときにその一貫として規格化したもので、パーソナルコンピュータのOSであるWindows95/98とはまったく別物でした。
しかし、このフォーマットは当初から大容量でのディスクアクセスができ、信頼性もFATより高かったので、Windows2000/XPで使用されるようになりました。
以降、NTFSは2000年代後半のWindowsXP、WindowsVista、Window7の標準フォーマットとなりました。
右図は2004年に購入したWindowsXP搭載DellノートPCのハードディスクのプロパティで、これを見るとファイルシステムがNTFSになっていることがわかります。
ボリューム
サイズ
アロケーション
ユニットサイズ
> 512MB
512B
512MB - 1024MB
1kB
1024MB - 2048MB
2kB
2GB <
4kB
WindowsXPでのNTFSフォーマットに使用されるクラスタサイズ(アロケーションユニットサイズ)
【NTFSの特徴】
・ Bツリー構造の採用。
     Bツリーは、Binary Treeの略で、2分木と略される。
     ツリー状のデータ構造のため検索が速く管理がしやすい。
      BツリーはMacintoshのファイルシステムにも採用されている。
・ 大容量化
     1ファルが1ボリューム丸ごと占拠する容量にまで拡張された。
     1ファイルの最大容量は2TB( = 241 B)。
     これは、1ファイルの最大が2GB( = 231 B)であるFAT32よりも大容量。
     理論的には、1ボリュームは最大16EB
     (エクサバイト、16E18 B = 264 B)まで可能。
・ ジャーナリングファイルシステム(Journaling File System)
     この機能は、ディスクへのデータ保存などで電源遮断などの不具合が
      起きた際に、必要最低限のダメージでディスクを守る機能。
     この機能がない場合は、ハードウェア自体のクラッシュに陥る。
     この機能によって、FATより信頼性が高くなった。
     この機能を採用しているのは、NTFSの他、UNIXとMacOS( = HFS+)。
     この機能は、コンピュータがファイル処理を行う毎に逐次ログを残しておき
     CPUの異常停止などでファイル処理が中断したとしても、そのログを頼りに
     迅速にファイルデータを復旧させるというもの。ファイル保存手順はその分時間がかかる。
・ 圧縮機能
     個々のファイルやフォルダ、もしくはボリューム全体を圧縮することが可能。
・ 暗号化機能
     個々のファイルやフォルダに対して暗号をかけることができる。
・ セキュリティの向上
     個々のファイルやディレクトリにACL(Access Control List)によるアクセス権の設定や監視の設定ができる。 
・ Windows9X系、Macintoshとの親和性がない。
 
 
■ HFS(Hierarchical File System)
このファイルシステムは、アップル社のマッキントッシュが採用したもので、1985年に開発されました。
「Mac OS標準フォーマット」とも呼ばれています。
アップルが1985年以前まで採用していたフォーマットは、MFS(Macintosh File System)と呼ばれていたもので、箱(ディスク)の中にデータをそのまま入れ込むようなフラットな構造でした。
これをツリー構造(フォルダーで管理する構造)に変えたため、階層化(Hierarchical)という言葉が使われました。
ツリー構造はB分木(Binary Tree)と呼ばれ、コンピュータのデータ管理の基本的なものであり、検索や保存のための管理が容易な構造です。
B分木は、B+木(B + Tree)やB*木(B* - Tree)の二つに派生し、MacintoshではB*木構造が採用されています。
Windowsの世界では、NTFSがB分木を採用しています。
 
マックのファイルシステムの大きな特徴は、2つのコンポーネントを持つフォーク構造にあります。
HFS+では、二つ以上のフォークを持つ構造となりました。
フォークとはコンピュータ用語でプログラムの派生という意味で、食事に使うフォークのように根本から分岐している様から名付けられました。
HFSではファイルそのものであるデータフォークのほかに、アイコンやファイルの属性を書き記したリソースフォークの2つのフォークでファイルが構成されていました。
アップルは昔からファイル名に拡張子をつけなくてもファイルの属性がわかったり、フォルダやファイルをアイコンで表示できたのは、リソースフォークに柔軟性があったからです。
1998年には、HFS+(Mac OS拡張フォーマット)というフォーマットが作られMac OS8.1に組み込まれました。
MacOSXでは、HFS+が標準フォーマットになったため起動ディスクとしてHFSは使用できなくなりました。
HFS+の大きな特徴は、ファイルのブロックを4kB(=アロケーションサイズ、クラスターサイズ)とし、最大ファイルサイズが4EB(エクサバイト)となり、最大ボリュームサイズが16EBまで扱うことができるようになったことです。
アロケーションブロックは、記憶媒体の総容量によって変わり、以下のような設定となっています。
ファイル文字は255文字まで対応しています。
また、ジャーナリング機能を持たせていました。
こう書くとHFS+は、NTFSと性能が良く似ていることがわかります。
要するに、ファイルシステムは時代とともに大容量化し、信頼性も向上させて使いやすくなってきたと言えます。
HFS+は、iPodにも採用されています。
ボリューム
サイズ
アロケーション
ユニットサイズ
> 256MB
512B
256MB - 512MB
1kB
512MB - 1GB
2kB
1GB 
4kB
HFS+フォーマットに使用されるアロケーションユニットサイズ(クラスタ)
 
■ HFSの規格
   ・ 規格年: 1985年
   ・ フォーク: 2
   ・ 構造: B*木
   ・ ファイルサイズ: 最大 2GB ( = 231B)
   ・ ファイル数: 最大65,535 ( = 216
   ・ ファイル名: 最大31文字 ( = 25
   ・ ボリューム: 最大2TB ( = 241B)
   ・ ジャーナリング: 無し
 
■ HFS+の規格
   ・ 規格年: 1998年
   ・ フォーク: マルチフォーク
   ・ 構造: B*木
   ・ ブロックサイズ: 4kB固定 ( = 212 B)
   ・ ファイルサイズ: 最大 8EB ( = 263 B)
   ・ ファイル数: 限度無し
   ・ ファイル名: 最大255文字(Unicode対応)
   ・ ボリューム: 最大16EB ( = 264 B)
   ・ ジャーナル機能: 有り        
↑にメニューバーが現れない場合、
クリックして下さい。
 
   
 
光による記録 (2009.07.26追記)(2011.03.03追記)(2022.04.10追記)
 
映像を記録する媒体は、1830年代の銀塩感光材料から始まり、100年後の1930年代に開発された酸化鉄による磁性体(薄膜フィルム)で大きく飛躍しました。
酸化鉄磁性体による映像記録は、電子記録を可能にするものでした。
1980年代になると、銀塩感光材料や酸化鉄磁性体とは方式の異なる光を使った記録装置が登場します。
この光記録にレーザが大活躍します。
 
 
■ レーザの役割
光ディスクと呼ばれる記録メディアは、レーザの発明と発展により完成を見ました。
レーザが発明されていなければ、ここに述べる光ディスクメディアは日の目を見なかったことでしょう。
それほどにレーザの発明は画期的なことでした。
レーザが光ディスク記録に大きな貢献をした理由を挙げます。  
 
1. ミクロン単位のビームスポットが容易に得られる。
2. エネルギー密度が高く、しかもエネルギー出力を制御しやすい。
3. 単一波長であるため、ノイズ光を取り除きやすい。
4. 波面が揃っている。干渉が起きやすいためノイズ成分を除去しやすい。
5. 偏光が利用でき、信号検出が行いやすい。レーザ光は偏光を持ち合わせているので偏光を利用した光学系が作りやすい。
 
 
 
■ 光ディスクの種類
光ディスクを代表するものは、CD(コンパクトディスク)です。
CDが母体となって、DVD、Blu-rayディスクへと発展しました。
また、レーザーの持つ高密度熱エネルギーを利用して熱によって磁性が変化する磁性体材料が開発され、MOやMDの開発が行われました。
ここでは、レーザを使った光ディスクによる映像(データ)記録媒体を紹介します。
 

 

   
 
【光磁気ディスク(Magneto - Optical Disk = MO)】  (2007.11.30)(2011.03.03追記)
 
 
■ MO以前の光ディスク - レーザディスク(LD)
MO(光磁気ディスク)は、1980年代後半に登場します。
MOは、コンピュータ用の記憶装置としての位置づけが強い製品ですが、MOが出される前の光メディアには光ディスクがありました。
これは、レーザディスク(Laser Disc)という名前のもので、日本のパイオニアが1981年に市販化しました。
レーザディスク(LD = Laser Disc)は、デジタルではなく、アナログ録画でした。
レーザディスクが開発された1981年当時、高速デジタル技術は進んでいなかったので、記録媒体は光ディスクであってもアナログ映像信号(NTSC信号)を光変調して、30cmサイズのディスク(塩化ビニールのLPと同じ大きさ)に映像情報を書き込んでいました。
この時期は、家庭用のVHSとベータマックスが熾烈な競争をしていた時期です。
この時期に開発された光レーザディスクは、絵の出るレコードとして売り出されました。
このメディアを使って、カラオケが映像付きとなり、映画がディスクに焼き直されて9,000円前後の値段で売られ始めました。
最盛期は1990年で、約81万台の販売規模があったそうです。
1998年以降、DVDの発展とともに衰退して製品の開発がストップし、2009年3月にパイオニアの製造中止によって寿命が終わりました。
光レーザディスクが淘汰されたのは、以下の要因があったからです。
 
・ 光レーザディスクが30cmという大きさ(LPレコード盤の大きさ)であったこと。
・ アナログ記録であったこと。
・ 安価にならなかったこと。
・ 再生専用がメインであり、記録可能な装置は高価であったこと。
・ DVD、CDがメディア分野とコンピュータ分野に急速に浸透して行ったこと。  
 
【LaserDisc VP-1000の仕様 1980年パイオニア社】
・ディスク: 直径30cm、アクリル材質
・記録面: アルミ蒸着
・ピット(記録情報): ピット巾0.4um、深さ0.1um、トラックピッチ1.6um
・記録: ダイレクトFM変調によるスライスした矩形波によるNTSC信号記録(アナログ)
・再生時間: CAVにて片面30分、CLVにて片面60分
・モータ回転数: CAV(回転数一定)にて1,800 rpm、
          CLV(線速度一定)にて1,800 rpm(内側)〜600 rpm(外側)
・レーザ: ヘリウムネオンガスレーザ、出力1mW、発振波長λ = 632.8 nm
・ビデオ出力: NTSC(アナログビデオ)信号
・解像力: CAVモードにて、内周部336本、外周部440本(平均400本)
      CLVモードにて336本  ・S/N: 42dB以上
・スチル再生: 可能。円周1回転がビデオ映像1フレームに相当。
・正逆サーチ機能: あり
・電源: AC100V、 95W
・寸法: 550W x 142H x 405D、 17.5 kg
     
 
■ VHD(Video High Density Disc、う゛い・えいち・でぃ)  (2009.11.17)
レーザディスクが登場した時代に、LD(レーザーディスク)に対抗したビデオディスクがありました。
それはVHDと呼ばれたもので、1983年に日本ビクターが開発しました。
このビデオディスクは光学式ではなく静電容量式のピックアップを持っていて、26cmのディスクサイズでした。LDは30cm径でした。
信号を取り出すピックアップはディスクに接触していて、ディスク面に記録された静電容量による情報を取り出す方式となっていました。
もちろんアナログ方式です。 ディスク面には溝はなく、900rpmの一定回転で回るCAV方式でした。
ディスクがピックアップと接触する関係上、ディスクはキャディ(カートリッジ)に入れられていました。
ホコリを嫌ったのです。
競争相手のLDは、キャディ無しのベアディスク(CDやDVDと同じ)でした。
興味あることに、このVHDはVHSビデオテープレコーダを開発した日本ビクターが手がけて、この方式に参入するメーカには松下電器(パナソニック)、三洋、日本電気、シャープ、三菱電機など15社が名を連ねるという、数とネームバリューではライバルを圧倒していました。
レーザディスク方式は、パイオニアの一社でした。
ソニー(と日立)は、当初、なぜかいずれの陣営にも組みせず、後になってレーザディスクに参入しました。
この事実は、技術的に考えてみますと、当時レーザ光源はとても高価でありそれに安定性の問題もあったため、多くのメーカがLDに参入するのを躊躇したのではないかと考えます。
1980年初頭の半導体レーザは、CD用の赤外小型小出力のものはできていたものの、映像を記録・再生するだけの短波長(赤色)で高出力のものはまだできていませんでした。
当時は、VHSが松下・日本ビクターを中心としてすごい勢いをもっていましたから、その陣営が開発する新製品を扱えば道は拡がるとも思ったのかも知れません。
次世代の絵の出るレコードの開発を巡って各社が激しい競争をする中で、レーザを制御する技術を獲得したパイオニアがVHD陣営よりも早く商品化にこぎ着けました。
VHDもLDと同時期に発売する予定であったのが、技術開発の遅れで大幅にずれ込み1983年となりました。
VHDは、しかしながら、水平解像力が240本程度とVHS程度の低さであり、しかもピックアップのメンテナンスも行わなければならないため、当時主流になりつつあったテープ方式のVHSの方が使い勝手が良かったこともあり(安価、ダビング、コピーができる)、それほど需要を喚起するにはいたりませんでした。
また、使い勝手がよく画質に優れるレーザディスクに大きく水をあけられることにもなりました。
VHDは、盤面が汚れると音飛びや画像乱れが多くあったそうです。
レーザディスク(LD)装置にCDも読み込めるようになった CLD-9000の発売(1984年)が、VHDの息の根を止めた出来事だったと言われています。
このためVHDは、早々にホームビデオ市場からは撤退して、カラオケ市場に軸足を移ました。
しかし、それも2003年6月をもって市場から撤退することになりました。
    
■ MO(Magneto Optical Disc、光磁気ディスク)の開発  (2010.07.10追記)
コンピュータ周辺装置としてのMO(= Magnet Optical Disc)は、1988年に5.25型(インチ)の光磁気ディスクとして登場します。
3.5型(インチ)タイプのMO。2HDフロッピーとほぼ同じ大きさで厚さは2倍以上あった。ハードカセットに収納されている。
その後、一般的になる3.5型(インチ)サイズ128MBのMOは、1991年に出荷されました。
当時は、パソコンの急速な発展に伴ってFDD(フロッピー)の記憶容量に限界を感じていた時期であり、フロッピーディスク感覚でデータを保存、消去できる光磁気ディスク(MO)の登場は、そうした要求を十分に満たすものでした。
MOは、CDよりも開発が遅く高度な技術を必要としていました。
MOの画期的な所は、データを何回も消去でき、しかもランダムに読み書きができることでした。
データ容量も3.5型(インチ)タイプでは、128MB、230MBが販売され、540MB、640MBと進化していきました。
その後、2.3GB容量のMO( = GIGAMO)が製品化されました。
後年、CDが音楽メディアからコンピュータのデータメディアに進出してきて、コンピュータのデータ記録メディアの主流となったとき、MOは脇役とならざるを得ませんでした。
CDがパソコンメディアの主流になった時、CDのデータ記録方式がフロッピーやハードディスク、MOのそれとは異なっていたために大いに戸惑ったことを記憶しています。
CDは、細かなファイルの読み書きができず、媒体内(CD)に一気に書き込みを行わなければなりませんでした。
これは、CDがデータの読み書き用に開発されたのではなく、音楽を再生するために作られたことに起因しています。
音楽録音は、LP(塩ビのレコード)に見られるように蚊取り線香のような渦巻き状に一本の溝で連綿と記録していくものです。
データをセクタ毎に入れ込んでいく細切れの録音ではないのです。
音楽のレコードの代用として開発されたCDでしたが、メディア容量の大きさとディスク単価の安さからパソコン業界に大いに受け入れられて行きました。
2000年後半のMOは、CD及びDVD、半導体のスティックメモリの発展に隠れてしまい、一時期の趨勢を挽回できなくなりました。
その理由の第一は、MOメディア(ディスク)とMOドライブ装置が高価だったことです。
MOが128MBの容量を持って登場したときには、CDはすでに5倍も大きい650MBの容量を持っていて、ディスク価格も1/20以下と安価でした。
また、汎用性の高いCD/DVDドライブ装置がコンピュータの標準I/O(入出力装置)として装備されて行ったのに対し、MOは最後まで外付けの周辺装置であったため、ことさらにMOを買う必要性がなくなってしまいました。
CDやDVDが、データの消去と書き直しができるようになったり、急速にデータ容量を増やして行ったことも、MOが主導権を奪えなかった要因となりました。
また、日本ではそこそこの需要を掘り起こしたのに対し、欧米でのマーケティングは芳しいものではありませんでした。
 
▲ MOの記録・再生原理
MOの情報記録には、酸化鉄の磁性体と異なり、温度に依存する磁性体を使っています。
記録面を一旦高温(摂氏150度〜180度)に熱して磁性状態を開放し、温度が冷えて磁性が回復する時点で、外部から磁力を与えて磁化させるという方式をとっています。
磁化された記録面は、常温ではその情報を保ち続けます。
ですから、MOは通常の状態で磁石を近づけても磁化されることはありません。
ここの所が、酸化鉄磁性体を使ったフロッピーディスクや磁気テープ、ハードディスクドライブと異なる点です。
物性が磁性を失う温度をキュリー点と言います。 そのキュリー点に到達させるのに、エネルギー密度の高いレーザ光を使います。
一般的には赤色レーザが使われてきました。
このように、MOとCD/DVDでは記録方式が異なったものになっています。
MOが磁気記録を基本としているのに対し、CD/DVDは磁気記録方式を採用していません。 記録が一回だけのCD-Rは、有機色素材料を用いてMOより強いレーザ光でピット面を焼き切る形で光学的な記録をします。
CD-RWというタイプはデータを何度も消去して記録できる方式であり、この点ではMOと似ています。
しかし、CD-RW(およびDVDのリライタブル)ではアモルファス金属を用いて、この面をレーザの熱エネルギーによって結晶構造を変えます。
この時に結晶構造面の反射率が変わるため、その反射率を検知してデータを読み出す方式をとっています。
磁性材料ではないのです。
 

 

 
MOでは、CD/DVDの記録方法とは異なり磁性という形で記録されます。
データを読み出す時には、磁化された面が偏光という特性をもって入射した光を偏光反射させるので(磁気光学カー効果)、記録時よりも弱いレーザ光を当てて偏光の度合いを検出して記録した情報を取り出します。
こうした記録を可能にする記録材料には、希土類(R)と遷移金属元素(TM)による合金アモルファスがあります。
この材料をポリカーボネート基板の上にサブマイクロメータの厚さで真空蒸着(薄膜生成)させています。
光磁気ディスクは、光(熱)による記録再生を基本としているので、ディスク製造には安定した記録保持ができる記録材質の開発が大切な課題でした。
 
▲ MOの存在価値
MOは、2011年時点のコンピュータ周辺記録装置の中にあって、CDやDVDに主導権を奪われてしまっています。
しかし、MOにはMOならではの大きな利点があります。
それは耐久性です。
MOのデータ保持する寿命は50年とも100年とも言われ、記録回数は1000万回と言われています。
この耐久性は、ハードディスクやフラッシュメモリなどと較べて桁違いの性能です。
この観点から、MOは大切なデータを長く保存したい要求に十分に応えることができ、今現在も根強い支持を得ています。
MOが高い耐久性を持ち得るのは、以下のような要素によるものです。
 
1. MOディスクが堅牢なカートリッジに収納されているため、 外部からのチリやホコリ、引っ掻き傷に強い。
2. MOディスクは、CDやDVDディスクに較べて2倍ほどの厚さがあり、表面を厚いポリカーボネートで覆われているのでキズに強い。
3. MOに使用されるレーザ光は、弱い出力で読み書きを行うのでディスクへのダメージが少ない。
4. 常温での磁石による磁化がない。
5. 非接触操作なので、ハードディスクやフロッピーディスクのようにディスクの摩耗がない。
6. CD-R、DVD-Rの記録メディアよりも紫外線に対して強い。経年変化に強い。
 
MOは世界的な普及はありませんでしたが、日本では比較的堅調にシェアを維持していて、官公庁などでの長期間文書を保存する必要のある機関や、出版関係では根強い需要を持ってきました。
また、5.25インチのものは引き続き開発が行われ、青紫レーザを用いた200GB容量のディスク開発が行われています。
2011年にあってMOディスクドライブを製造しているメーカはありません。
メディア製造は、2009年9月末に日立マクセルが製造を終了し、同年12月末に三菱化学メディアが販売を終了しました。 製造を続けていたソニーも2018年に販売を終了しました。(2022.04.20追記)
 
    
【CD = Compact Disc】
(Discは英国表記、通常はDiskであるがソニーはDiscを登録商標に用いた)(2009.09.17)(2009.11.20追記)(2020.05.10追記)
CD(コンパクトディスク)の誕生は1982年です。
CDの登場は、データメディアに一大革命をもたらしました。
650MBの記憶容量をもつCDは、オーディオをデジタルにパッケージングするのに十分であり、パソコンのデータ保存にも十分でした。
CDが開発された時期の1982年は、IBMがパーソナルコンピュータが開発された年であり、またフロッピーディスクやハードディスクドライブが開発された年でもあります。
CDは、今の感覚からするとコンピュータのデータメディアとして開発された印象があります。
しかし、実際は音楽用として開発されました。
黒い塩化ビニールのレコード(LP = Long Play Record Album、大きさφ12インチ = 30.5cm、 両面録音、アナログ記録ディスク)に代わるデジタルディスクとして開発されたのです。
CDは、ハードディスクドライブのようにコンピュータ用データ保存用として開発されたわけではありません。
CDは、ソニー、日立、日本コロムビアによって、デジタルオーディオディスクとして発売されました。
 
コンピュータ用メディアであるCD-ROM(Compact Disc Read On Memory)は、音楽用CDが発売された3年後の1985年に作られました。
データファイルをPCを使って記録保存できるCD-Rは、1989年にソニーとフィリップスによって開発されました。
CD-ROMとCD-R(後年のCD-RW)は、パソコンの発展に無くてはならないものとなりました。
音楽用CDは、実用的なデジタル録音メディアであり、品質がよくて取り扱いも楽なことから市場に急速に普及し、発売7年後の1989年にはそれまで主流であったレコード盤(LP)に対する売上シェアを90%としました。
2007年、新譜LPの姿は店頭にありません。
CDは、1982年の発売以降28年の歴史(2010年時点)を持つことになります。
随分と長い間音楽ソースとして君臨して来たように思います。
ちなみに、ステレオのレコード盤は1958年に開発されました。
24年後の1982年にデジタルオーディオの元祖であるCDが発売されました。
1982年は、デジタルオーディオ元年と呼ばれています。
CDの対抗馬であるレーザディスク(LD)は、1972年、オランダフィリップス社で開発されました。
このディスクは、光学式ビデオディスクでしたがデジタルではありませんでした。
1977年に、このビデオディスクを基本としたオーディオディスクが、ソニー、三菱、ティアック、日立、日本コロムビアから発売されました。
(そのCDは、2001年のiPodの発売を契機にMP3音楽ファイルが主流となり、インターネットからダウンロードされるようになると急速に需要を減らしていきました。(2020.05.10追記)
 
■ 光ディスクの標準となった120mm径、厚さ1.2mm規格
1979年、フィリップス社は現在のCDの原型となった直径11.5cmのコンパクトディスクを発表します。
このサイズの根拠は、フィリップスが開発したオーディオカセットの対角線から割り出したサイズと言われています。
このディスクサイズで、14ビットの量子化による60分のデジタル録音ができる設計になっていました。
しかし、この仕様に満足しなかったソニーは、ベートーベンの第九交響曲がそっくり入る67分の録音と16ビットの量子化を提案したために、最終的に12cmの直径となりました。
12cm径のCDは、75分の録音が可能でした。
1980年には、フィリップスとソニーによってコンパクトディスクの規格統一の合意がなされ、本格的なCD時代が到来しました。
CDが開発されて以降、光ディスクの高速大容量化の技術が進み、DVD、HDDVD、Blu-rayが開発されていきます。
しかし、いずれもディスクのサイズは12cmの円形であり、厚さも1.2mmと同じ寸法になっています。
 
方やMOやフロッピーディスク(FDD)やハードディスク装置(HDD)は、8インチ、5.25インチ、3.5インチ、2.5インチ径という米国仕様で取り決められました。
 
CDとFDD(HDD)は、デジタル記録でありながら別々の分野から開発が行われて、コンピュータのストレージ(データ保存)分野に根付いて行きました。
 
■ CDの仕様
 
【仕様】
・直径: 12cm(または8cm)
・厚さ: 1.2mm厚 ・材質: ポリカーボネート
・線速度: 1.2m/s〜1.4m/s
・回転数: 500rpm(中心部)〜200rpm(外縁部)
・トラックピッチ: 1.6um
・最小ピット長: 0.87um
・読み取りレーザ: λ=780nm赤色半導体レーザ
・対物レンズ開口数: N.A. = 0.45
・記憶容量: 640MB、650MB、700MB
・読み込み速度: 1.2M bps(1411.2k bps 等倍速、最大72倍速)
  
▼ オーディオCDの記録周波数:44.1kHz
CD開発の根本仕様の一つに、記録周波数があります。
記録周波数が大事であるのは、デジタル録音をするのですから当然と言えば当然です。
音をデジタル化する場合、どの程度の周波数でデジタル変換すれば原音に近く録音できて、しかも取扱が楽かという設計思想にたって、44.1kHzが決定されました。
人の可聴周波数の上限が20kHzと言われていますので、その倍の40kHzにすれば20kHzまでの音を忠実に再現できるというのが根拠でした。
また、この周波数に合わせて音を16ビット(65,000階調)に量子化しています。
音の大きさを65,000階調に分けたということです。
こうしてCDによる音声のデジタル録音は、原音を左右それぞれ44.1kHzのサンプリングレートとし、16ビットによって量子化されました。
録音の段階では、16ビットを8ビットずつ2つに分けています。
この8ビット分を1シンボルと呼びます。 従って、量子化された1サンプル( = 1/44,100秒単位)の音は、16ビット = 2シンボルとなります。 CD-ROM(1985年開発)のデータ読み取り速度は、音楽CDと同じ速度で定められたため1.2Mビット/秒(正確には、1,411.2k bps)となっています。
 
    44.1k Hz x 16 bit/ch x 2 ch = 1411.2k bps ・・・(Rec -39b)
 
これを等速(1倍速)とし、データの高速転送に伴って速度が上げられ、x2、x4、x8、x48と呼ばれる高速読み出しができるようになりました。
2006年には、x52倍速をもつCDが開発されました。
 
▼ EFM変調方式 (Eight to Fourteen Modulation)
デジタルオーディオの録音方式で、CDの性能を決定づけたEFM変調方式について述べます。
この発明によってデジタルオーディオの実用化が決定づけられたと言っても過言ではありません。
音楽は、待ったなしに長時間にわたり音声データが流れてきます。
オーディオ装置は、間違いをできるだけ少なくして確実にデータを読み出さなくてはなりません。
デジタルデータの確実な高速受け渡しを可能にしたのが、EFM変調方式だったのです。
CDの録音では、音声データの1シンボル = 8ビットは14ビットに変換されます。
8→14なので、これをEFM(Eight to Fourteen Modulation)と呼んでいます。
この技法は、オランダのフィリップス社 の科学者Kees A. Schouhamer Immink(1946.12〜)(ケイス・スホウハメル・イミンク)によって開発されました。
 
なぜ、8ビットの音情報をわざわざ14ビットに膨らませて記録させるのでしょう。
 
デジタルデータは、圧縮技術を使ってどんどん少なくしている傾向があるのに、CDは倍近いデータに膨らませて、しかも情報は8ビットのまま据え置いているというのは、すぐには納得できないことです。
しかし、こうしないとデータを確実に送ることができませんでした。
読み間違えをしないための方法でした。
EFMは、データを確実に読み取るために避けて通ることのできない変調方式だったのです。
例えば、音が全くない「0」を考えてみましょう。
この時、8ビットの音情報は、0000000となって「0」が8つ並びます。
この場合、CDプレーヤーはちゃんと「0」を8個として読み取ってくれるでしょうか。
同じ信号が連続して続いたとき、CDのピックアップの読み取り誤差、ディスクの回転ムラ、CD表面の汚れ、欠陥、ディスクの撓みや傾きなどで正しく情報を読み込まない可能性が十分に出てきます。
そうした読み取り誤差をなくすために、8ビットの間にあらたに情報成分を6個入れ込んで長く続く同じ信号成分をカットし、誤りを少なくして情報の読み取り精度を高めたのです。
8ビット情報にあたる256種類には、予め14ビット情報に変換するテーブル(表)が決められていて、この変換テーブルに従って14ビット化した情報をCDに書き込み、CDから読み出す時は14ビットの情報を再び変換テーブルを使って8ビットに戻すという仕組みを採用しました。
なにやら暗号文の暗号化/復号化のようです。
 
   なぜ、CDはこれほどまでにデータの読み取りを慎重にしているのでしょう。  
 
他の記録媒体、例えばフロッピーディスクやハードディスクでも同じような方式でデータを記録しているのでしょうか。
答えはノーです。 CDは、CDならではのデジタル音声データ読み出しの事情がありました。
事情とは、67分間もの長い間連綿とデータを出し続けなくてはならない事情です。
これは、文書ファイルなどのデータ出力手順とは決定的な違いです。
待ったなしのデータ出力に対しては、一回の読み取りで正確にデータを取り出す必要があり、誤り訂正を幾重にもしてデータの信頼性を高める工夫がなされたのです。
文書ファイルや静止画像ファイルデータなどは、ここまで厳しくしなくても何度でも読みに行けば良いので楽かも知れません。
映画のような動画像となると、音声同様待ったなしの映像情報になるので、誤り訂正はさらに重要となります。 従って、DVDでもBlu-rayでも同様の誤り訂正機能(しかももっと巧妙な機能)がつけられています。
 
■ 17ビットの1シンボルデータ
先に述べたように、44.1kHzでサンプリングされた一つの音は2シンボルで構成されます。
これをEFMによって14ビット1シンボルとしているので、音の一つは28ビットのデータとなります。
画像では画像の一単位を画素(pixel)と言っているのに、音の基本はなんと言っているのでしょう。
音素(おんそ = aucel)などという言い方があるのでしょうか。
変な疑問はともかく、CDに記録された音の基本単位は44.1kHzの2シンボルということになります。
デジタル録音される音素は28ビットになりますが、一種の暗号化で大きくなっているだけなので、音自体は16ビットに変わりがありません。
この手法(EFM)は、結果的には画期的な手法となりCDの再現性の良さを確乎たるものにしました。
この成功により、DVDの開発においても同じ原理を応用したEFMplusが採用され、Blu-ray Discでは1-7pp変調が採用されました。
このようにして、この変調方式はディスクメディアに無くてはならないものとなりました。
さらに、EFMで14ビットにされた1シンボルの音は、3ビットのつなぎビットが挿入されて17ビットとするのでこれが1シンボル単位となります。
つなぎビットの目的は、記録波形の直流成分を少なくすることにあり、長い期間でみてHIGHとLOWが等しくなるようにしています。
14ビット、1シンボルの波形がHIGHになっていればつなぎビットをLOWにしてトータルで0になるようにしています。
この機能がデータに欠陥があって正しいデータに直さなければならないときに役立ちます。
つなぎビットで直流成分を低く抑えるには、DSV(Digital Sum Value)という数値から判断して行います。
つなぎビットは、記録情報が増えて不利になるような気もしますが、実際にはそれ以上のメリットがあります。
連綿と続く音を待ったなしで再現して行くには、こうした誤り訂正技術を巧みに駆使していく必要があったのです。
 
■ リード・ソロモン符号(Reed Solomon Coding)
CDに採用されたシンボルを単位として誤り訂正を行う手法をリード・ソロモン符号処理(Reed - Solomon Coding)と言います。
リード・ソロモン符号は、1960年に開発されました。
リード(Irving S. Reed: 1923〜)とソロモン(Gustave Solomon: 1930 - 1996)は、米国の数学者でMIT(マサチューセッツ工科大学)出身者です。
1960年は、デジタル処理が十分に発達していない時期なので、この手法はデータ処理の一貫として数学上のテーマで開発されたものと考えます。
これが情報処理の時代になって、情報の誤り訂正の強力な手法として取り上げられ、CDやDVDの記録や、衛星デジタル通信などに取り入れられました。
この符号化は、情報をブロック毎に分け(シンボル化)てシンボル内の誤り訂正を行うことを特徴としていて、データの欠損が連綿と続く可能性のある情報処理に威力を発揮しました。
これは、CDやDVDなどの連綿と続くデータの訂正処理にはうってつけでした。
この符号処理は複雑なので、計算処理が高いプロセッサが現れるまでは現実味を帯びませんでした。
1980年代初頭が、そうした技術環境が熟した時期だったのだと理解できます。
 
▼ CDのデータ容量
CDは、長時間の音声データが次々に読み出されます。
CDからの読み出しは、フロッピーディスクに保存された一般の文書保存とは趣が異なります。
データは後からあとからどんどん出てきますので、速やかに読み出しを行いしかも確実でなければなりません。
そのためにデータが確実に読み出せるようパリティが組み込まれ、また、連続した同じ信号データが続かないように、8ビットデータを14ビットに変換する処理がなされています。
当然、記録されるデータは訂正処理のための信号が組み合わさるので、実際の音声データより大きくなります。
 
■ 1フレーム単位の音声データ
CDの記録には、データの誤り、欠損の回復を狙いとして、1フレーム単位でデータが格納されています。
フレーム周波数は、7.35kHzで、チャンネルビット数は4.3218MHz( = フレーム周波数の588倍)となっています。
フレーム情報は、以下のような構成となっています。
フレーム情報の概念図は下図を参照して下さい。
 
・1フレームのビット数は588ビットである。その内訳は、
・ フレームの最初は、24ビットの同期信号 + つなぎビット3ビット。
・ 次に制御信号として、14ビット(1シンボル) + つなぎビット3ビットが当てられる。
・ 次にデータのシンボルが12ヶ。(17ビット x12)
・ 誤り訂正用パリティビットが4シンボル。(17ビット x4)
・ このデータシンボルとパリティがもう一回つながる(17ビット x16)
 
上に述べた構成によって、1フレームあたり、588ビットの塊となります。(下図参照)  
 
( 24 bit/同期信号 + 3 bit/つなぎ ) + 14 bit/制御信号 + 3 bit/つなぎ
      + {17 bit/データ・誤り x(12 + 4) データ・誤り }x 2 = 588 ビット  ・・・(Rec -40)
 
1フレーム(588ビット)データの配列は、以下の図のようになっています。
この塊(1フレーム)を取り出して、情報に誤りがないかどうかをチェックし、エラーがあればそれを訂正して再生段に送ります。
図からわかるように、データを保存するのに、随分と慎重にエラーチェック機能が組み込まれているのがわかります。
1 フレームには上記の説明より音声データが24個分あることがわかります。
CD音声データは、左右(L.R)2チャンネルあり、また、音声データは2つのシンボルで1つの音声単位を構成しているので、1フレームには、24個のデータを2(左右)x2(シンボル) = 4で割った6対の左右の音声データが格納されていることになります。
 

   
 
1フレーム6対のデータで1フレームが構成され、これが 7.35kHzで格納されるため、1つの音声は、  
 
7.35 kHz x 6 = 44.1 kHz   ・・・(Rec -41)
 
44.1kHzの音声サンプリング周波数で録音されていることがわかります。
CDの記録容量を計算してみます。 CDは、1フレームという単位で記録されていることは先に述べました。
これは、588ビットの塊であり、これを7.35kHzで記録していくため、
 
588 ビット x 7,350 Hz = 4.3218 Mビット/秒  ・・・(Rec -42)
 
の記録となります。 これが74分間続くと、CD-ROMの記憶容量は、
 
4.3218 Mビット/秒 x 60 秒/分 x 74 = 19,188.792 Mビット( = 2,398.599 MB)  ・・・(Rec -43)
 
となり、合計すると19.2Gビットとなります。
この計算値は、通常言われているCD-ROMの記憶容量650MBの3.6倍にあたります。
つなぎや訂正信号を除いた音声自体のデータは、
 
14 ビット x 2 シンボル x 2 チャンネル x 44.1 kHz x 60 x 74 /8 ビット = 1,370.628 MB   ・・・(Rec -44)
 
1.37GBとなります。 これは、一般に言われているCD-ROMの容量の2倍の記録容量になります。
通常、CDはサンプリング周波数が44.1kHzで、16ビット量子化、左右2チャンネルサンプリング、74分の記録を行いますから、FEM変換を考慮しない音声情報は、
 
16 ビット x 2 チャンネル x 44,100 Hz x 60 x 74 /8 ビット = 783.216 MB  ・・・(Rec -45)
 
783MBとなり、一般的に言われているCDの容量の数値となります。
つまり、ここで言いたいのは、CDの記憶容量は、公称のデータ容量の3.6倍程度ある、ということです。
CDには、記録データの安全な保存のために色々なチェックデータビットが加えられているということがわかります。
ここまでしないと、まともにデジタル音声信号の記録再生ができなかったことを教えてくれています。
 
デジタル記録媒体の歴史を振り返って見ると、ここまで幾重にも誤り訂正処理を施した記録方式はなかったように思います。
紙テープにしてもフロッピーにしても簡単なパリティだけでデータを保存していました。
ハードディスクでの保存は、セクタ毎にデータの確認が行われ、うまく記録できない場合は再度書き込むという方式を取っていました。
しかし、CDの場合は、膨大な音声データを連綿と流さなければならない性質上、またディスクの歪みや傾き、ディスク表面の汚れなどを考慮して読み取りエラーがあっても訂正できるように、このような方式を取ったものと考えます。
 
▼ データ書き込み
CDに記録されるビットは、1ヶ当たり約230ナノ秒の時間間隔(= 1/4.3218M bit/s)で記録されます。
ビットは、0.5umの巾の大きさで、トラック間隔は1.6umピッチで作られています(右図参照)。
ピットの長さは、9種類あり、線速度が1.25m/sの場合それぞれ、
 
0.87um、1.16um、  1.45um
1.74um、  2.02um、2.31um、
2.60um、2.89um、  3.18um
 
と決められています。
この長さは、線速度とピットの時間間隔(231.385ナノ秒)を考え合わせると、0.87umのピット長では3ビット分に相当し、以下1ビット分ずつ長さが増えていき、3.18umのピット長では、11ビット分の情報になります。 CDの記録は、このピット長を組み合わせてトラック上にピットを穿っています。
ピットは11ビット以上の長さはないことになります(EFM変調参照)。
 
データを読み出すレーザについて考えてみます。
使用している赤外レーザビーム(λ=780nm)とピックアップ光学レンズの開口数(N.A. = 0.45)から、ビームのスポット径(D)は以下の式によって、
 
D = 0.89λ/N.A. ・・・(Rec - 46)
   D: ビームスポット径
   λ: レーザ波長
   N.A.: レーザ光学装置の開口数
 
1.54umとなります。
このビーム径は、ピットの大きさよりも大きく、3ビット長のピットを飲み込んでしまう大きさです。
この大きなビーム径で細かなピット信号をどのようにして取り出しているかというと、ピットからの反射特性を検知して信号を取り出しています(右上図参照)。
CDに穿たれたピットは、クロック信号(4.3218MHz)に同期してピット信号を取りだし、信号処理を経てデジタル情報にしています。
保存されたデータが「0」や「1」が連綿と長く続くとカウントエラーが起きやすくなるため、長く同じ情報が続かない工夫として先に述べたEFM変調方式(Eight to Fourteen Modulation)が考案されました。
CDの読みとりは、CLV(Constant Linear Velocity)と呼ばれる線速度一定方式で読みとられます。
 
一般のコンピュータデータディスクは、構造を簡単にするため、ディスクの回転数を一定にしたCAV(Constant Angular Velocity)方式が一般的ですが、音楽メディアの場合、一定のデータ量で送らなければならない関係上、CLV方式になっています。
従って、内側と外側では回転数を変化させて線速度を一定に保つようにしています。
この理由により、デスク回転数はピックアップの位置によって変わり、約600〜200rpmの可変回転速度となります。
CDの大きさは、直径120mmで中心にφ15mmの穴が空いていて、φ50mm〜φ116mmのドーナッツ領域、つまり半径方向33mmの巾が記録領域となります。
 
CDは、連綿と音声信号が続く録音用として開発されたので、フロッピーデスクのように細切れのデータ領域を割り当てるという発想はありませんでした。
従って、CDをデータ用に使おうとすると、細切れにデータを格納できないので、一筆書きで一気に記録するという方法をとらざるを得ませんでした。
同じ光磁気ディスクでも、MOは、フロッピーやハードディスクの概念を引き継いでいますので、記録領域はセクタで分かれていて任意のデータ保存と消去が可能です(右図参照)。
   
▼ CDとMD(MiniDisc)(2022.04.10追記)
CD の容量は、75分で650〜700MBです。
MDも同じ時間のオーディオ録音ができます。
但し、データ容量は、CDの持つ容量の1/5の140MBです。
MD = MiniDisc(Discは英国表記、通常はDiskであるが、ソニーはDiscを登録商標とした)は、1992年にソニーによって開発されました。
MiniDiscは、CDのサイズをよりコンパクトにして録音・再生が簡単にできる構造でした。
ただし、MDの記録方式はCDの記録方式とは違い、MOと同じ光磁気方式を採用しています。
MD(Mini Disc)は、直径2.5インチ(φ64mm)、厚さ1.2mmの光ディスクで、これを72mmH x 68mmW x t5mmのカートリッジに収納して使っています。
MDのサウンドは、CDとほとんど変わらずに44.1kHz、16bit、ステレオフォーマットになっています。
しかしMDのコンピュータ的容量は140MBであり、これはCDの約1/5の容量にしか相当しません。
これは、MDがATRAC(Adaptive Transform Accoustic Coding)という非可逆圧縮技術を取り入れて、CDのデジタルデータよりも1/5に圧縮しているためです。
ちなみにCDはデータを圧縮していません(逆に膨らませているくらいです)
ATRAC は一種のマスキング効果(データ圧縮)で、例えば、大きな音と小さな音が重なっていると、小さな音は大きな音にかき消されてしまうことを利用してマスキングを行います。
主に高音と低音の部分でマスキングを行い、1/5の圧縮を行っています。
ちょっと聴いただけではわからないMDの音も、本当によく聴いてみるとやや音質が落ちていることになります。
MDは、CDほどの普及はみてません。
CD音楽ソースをコピーして使うアマチュア向けという位置づけで、ある程度の発展を遂げましたが、MP3の開発と半導体メモリの出現によって(2001年のiPodなどの携帯音楽再生装置の台頭によって)、徐々にその位置を失いつつあります。
(MDは、2011年をもって生産を終了しました。(2020.05.10追記)(2022.04.10追記)
   
 
■ ビデオCD(Video CD、View CD、Compact Disc digital video)
ビデオCDは、本来音楽用であったCDをビデオ再生媒体として使うために規格化されたものです。
これは、1993年にソニー、フィリップス、松下、日本ビクターによって規格化されました。
しかし、DVDが大きな飛躍を見せたために、ビデオCDの存在は忘れ去られたものになりました。
この規格ができたのは、CDを使って動画を保存したいという要求が当然のことながらあったことを教えてくれています。
ビデオCDが出た1993年から遡って6年前の1887年は、CDビデオ(CDV、CD Video)という製品が開発されています。
CDビデオは、アナログの映像録画(オーディオ部はデジタル)でした。
しかし、ビデオCDは、完全デジタルでした。
従って、ビデオCDは、当時もっとも普及していたVHSビデオテープ映像と較べて画質の劣化がなく色ムラもありませんでした。
ただし、画像が352x240画素と小さいため、再生時には画素を補間して倍にする(720x480画素)方式としていました。
CDは映像を保存するにはデータ容量が小さく転送レートが低いので、以下に示す性能が限度であったのかも知れません。
 
【ビデオCDの規格】
・ 解像度: 352 x 240画素(NTSCの4:3とは若干異なる)
・ 映像の圧縮: MPEG-1
・ 再生速度: 29.97フレーム/秒
・ データ:1150kbps
・ ビットレート: オーディオCDと同じ
・ 記録時間: 74分
・ 記録媒体: CD-ROM
 
ビデオCDは、安価に製造できることから、DVDが普及するまでの間、東南アジア(香港、フィリピン)などで使われました。
しかしながら、ビデオCDは、通常のパソコンのCDドライブでは再生できないものが多かったようです。
ビデオCDの存在すら知らない人もいると思います。
 
     
【DVD】(Digital Versatile Disc、開発初期は、Digital Video Disc) (2009.04.15追記)
DVDは、CDと同じ形状をしていながらより高密度化を図った光ディスクで1992年に開発されました。
CDの開発から10年後のことでした。
DVDは、ハリウッドを中心とする米国の映画業界が「映画並の映像を家庭で手軽に楽しんでもらいたい」と、東芝を中心とする日本のメーカに技術開発を持ちかけてきたのが始まりです。
光ディスク装置の技術は日本のお家芸であったため、日本のメーカに白羽の矢がたったようです。
DVDの基本仕様である片面一層だけで133分間再生できる能力は、ハリウッドの注文でした。
映画はほとんどが100分前後の長さであるため、片面一層に収めることが求められました。
DVDの開発も、CD開発と同様、コンピュータのデータ保存というよりも映画用のメディア(VHSテープの後継商品)を目的に開発が進みました。 音楽といい映画といい、メディア需要はコンピュータ周辺機器よりも娯楽製品の方がはるかに高いことをこれらの開発の歴史は教えてくれています。
 
■ CDとDVDの違い
DVDは、CDの技術を応用したより高密度でデータ容量の高いディスク装置です。
CDとディスク寸法を全く同じにしながら、どのように高密度記録を達成したのでしょう。
最も大きな技術革新は、光源(レーザ)をより波長の短いものに変えたことです。
CDが、780nmの赤外半導体レーザを使っていたのに対し、DVDでは650nmの赤色半導体レーザを使いました。
また使用するレンズもN.A.0.45からN.A.0.6と大きくし、波長との兼ね合いでビームスポットを1.5umから0.96umと小さくすることに成功しました。
ビームをより小さく絞り込むことができるようになったので、ディスク面に記録するピットも小さくすることができます。
このためピットの最小長さを0.87umから0.4umまで小さくすることができ、トラックピッチも1.6umから0.74umと半分以下に狭めることが可能となりました。
こうすることによって、同じ12cm径のディスクサイズで4.7GB(CDの約7倍)のデータ容量を確保することができるようになりました。
DVDは、また、当初から記録面を2面持つ設計になっていたので、2層記録では8.54GBのデータ容量をもつことができました。
 
【圧縮技術】
DVDに記録する動画には、MPEG-2と呼ばれる圧縮技術が用いられています。
音楽のCD録音では圧縮を使わなかったのに、さすがに映像ではそうもいかず圧縮技術を使わないと12cmのディスクに映画が収まりませんでした。
DVDの映像は、720画素 x 480画素、30フレーム/秒が基本となっています。
この動画を133分記録するとすると、単純計算で、
 
720画素 x 480画素 x 3バイト/画素 x 30フレーム/秒 x 60秒/分 x 133分 = 248.2 GB
 
248.2GBの容量が必要となります。
DVDは4.7GBの容量なので、単純計算で1/53に圧縮をする必要があります。
この圧縮のためにMPEG-2が採用されました。
MPEGは、Motion Picture Expert Groupの略で、映画などの動画像の圧縮を検討するため各国の専門家が作った委員会です。
MPEGは、1993年のMPEG1で最初の制定がおこなわれました。
データの圧縮率は約1/30でした。
この技術は、当初、カラオケCDで実用化されました。
映画などを収めたビデオCDでは、MPEG-1を使用して最大74分間の収録をおこなっていました。
しかし、MPEG-1方式での解像力は、VHSビデオ並であり、とても十分な画質とは言えませんでした。
そこで、解像力を720x480画素程度確保するためにMPEG-2の規格が作られ、1995年夏にまとめられました。
MPEG-2は、ハリウッド映画などのDVD作品になくてはならぬ映像フォーマットとなりました。
 
【片面二層式】
片面二層式のDVDは、張り合わせるディスクの両方にピットを作ってあります。
貼り合わせた2枚のディスクの一方には従来通りアルミの膜を付け、もう一枚には光が一部透けて通る金などの薄膜をつけておきます。
この二枚を、ピットのある側に向けて精度良くぴったりと貼り合わせます。
データを読み出す際に、光が一部透けて通る半透明層についてはレーザの光の焦点をここに合わせて反射光を検出します。
その下の層(貼り合わせたもう一枚のディスク)に記録されたデータを読みとるには、レーザ光のレンズ位置を微妙にずらします。
レーザ光は、半透明膜を通り抜けてもう一枚のディスクのアルミ膜で反射してこれを検出するようになっています。
 
【仕様】
 
・ 直径: 12cm
・ 厚さ: 0.6mm厚のプラスチックの2枚張り合わせ(厚さ計1.2mm)
・ トラックピッチ: 0.74um(CDは、1.6um)   最小ピット長:0.4um(CDは、0.87um)
・ 読み取りレーザ: λ=650nm赤色半導体レーザ(CDは、780nmの赤外レーザ)
・ 対物レンズ開口数: N.A. = 0.6(CDは、N.A. = 0.45)
・ ディスク回転数: 600 rpm 〜 1,400 rpm
・ 線速度: 3.49m/s
・ 記憶容量: 4.7GB〜17GB(DVD-5、DVD-9、DVD-10、DVD-17)
        DVD-5 片面再生 信号層1層 4.7GB
        DVD-9 片面再生 信号層2層 8.5GB
        DVD-10 両面再生 信号層1層 9.4GB
        DVD-17 両面再生 信号層2層 17GB
・ 記録型:  DVD-R ライトワンス(一度だけ書き込み)片面3.8GB、両面7.6GB
        DVD-RAM オーバーライト(相変化方式) 片面2.6GB、両面5.2GB
・ 水平解像力:500本(S-VHS400本、LD400本)
・ データの読み出し: CD-ROMの10倍(4倍速の倍以上)
・ CDとの互換性:有り(CDは音楽を60-70分演奏できる目的で作られた)
 
DVDフォーラムが認定するロゴ。
DVD-R、DVD-RAM、DVD-RW、等がこれに属する。
DVD+RWアライアンスが認定するロゴ。
DVD+R、DVD+RW等がこれに属する。
【二つのDVD規格組織】
書き込み用DVDには、以下の2の流れがありました。
 
* DVD-RAMを推奨する「DVDフォーラム」グループ
* DVD+RWを推す「DVD+RWアライアンス」グループ
 
DVDメディアを見ると、右のようなロゴが描かれています。 これらが二つの団体を示したロゴです。
基本的に、最初のDVD規格は1995年に『DVDコンソーシアム』という団体ができて、1997年に『DVDフォーラム』に引き継がれます
『DVD+RWアライアンス』は、4年後の2001年にできます。
この両者はご多分に漏れず、規格争いの結果、このような図式となりました。DVDは、もともとは、CDが開発された後、新しい光ディスクによる高密度記録媒体が開発されます。 1990年代初めは、ソニーとフィリップスの開発したMMCD(MultiMedia Compact Disc)と、東芝・タイムワーナー・パナソニックなどが進めていたSD(Super Density Disc)の二つの流れがありました。SDは、フラッシュメモリのSDカードの名前の由来ともなりました。 (2020.03.24追記)この流れを一つにまとめる動きがIBMによってなされて、それが『DVDコンソーシアム』という形になりました。 これでDVD業界は一本化できると思われましたが、DVD-RAMの規格に対してMMCD方式を育ててきたソニーとフィリップスが異議を唱えて物別れになり、2001年に『DVD+RWアライアンス』が設立されました。
 
■ DVDフォーラム(1997年設立)参加企業
*東芝  *パナソニック(松下) *日立製作所  *シャープ *IBM
*Intel  *マイクロソフト  * LG  * Walt Disney Pictures and Television
* Warner Bros. Entertainment Inc.
 
■ DVD+RWアライアンス(2001年設立)参加企業
*ソニー  *フィリップス  *デル  *ヒューレットパッカード
*三菱化学メディア  *リコー *トムソン
 
上に述べたDVDの二つの大きな流れは、2000年から2008年まで続き競争が行われました。
2つのグループが作るDVD-R、DVD-RAM、DVD+R、DVD+RW、DVD-Videoなどの10種類ほどのDVDディスクが世の中に出回りました。
さらに、それに加えて、ハイビジョン対応のHD DVDとブルーレイディスク(Blu-ray Dics)の流れができました。
ハイビジョン対応DVDに関しては、2008年にBlu-rayに集約されました。
2008年になると二つのグループの競走は落ち着いて、DVDフォーラム規格(DVD-R、DVD-RAM)のディスクが大勢を占めるようになりました。
新しく購入するDVD装置では、ほとんどの種類のDVDディスク(ただし、Blu-rayは別)を読み出すことができるので、特に大きな問題にはなっていません。
書き込む時だけ注意して対応したディスクを使う必要があります。
しかし、書き込みにおいても、両方のDVDが使える装置が数多く出回っているので、それほど神経質にならなくても良いようです。
 
上の参加企業を見つと、DELLやHPなど外国のPCメーカがDVD+RWグループ(ソニー主導による新しいグループ)に属し、東芝やパナソニックなど日本のメーカは、DVDフォーラム(最初のグループ)に属しているようでした。
シェアから見ると、歴史的な背景からDVD-R/-RWの方が多く使われているようです。 欧米では、DVD+R/+RWの方がよく使われていると聞きます。
 
2009年4月、所用があって秋葉原に出て、大手ディスカウントストアを訪れました。
そこでDVDメディアが置いてあるコーナーに行って、どんな種類のブランクディスクが置いてあるのか見てみました。
驚いたことに、DVD-Rを始めとしたDVDフォーラムの推進するディスクが圧倒的な売り場面積を占めていました。
DVD+RWディスクを探すのに5分から10分ほどかかったでしょうか。
それほど、どの棚を見ても「-」(ダッシュ)のついたDVDディスクしか置いてなかったのです。
DVD+RWディスクは、ディスク売り場面積の5%も満たないような棚にひっそりと置かれていました。
他の棚を見ても、また通路におかれた売り出しのワゴンコーナーを見ても、すべてDVD-R、DVD-RWでした。
ソニーでさえも、DVD-Rディクスを自社ブランドで売っていたのにはビックリしました。
2005年当時までは、このような現象は無かったはずです。 少なくとも両者は拮抗していました。
 
どうしてこのようになってしまったのかよくわかりません。
ヨーロッパでは「+」のシェアが日本より高いと聞きます。
日本では、お店の棚から判断するのに「+」は5%もないように感じました。
ユーザの目からみると、両者に特別な技術的優位性があきらかにあるとは思えず、すべての規格のDVDを読み書きできる光学ピックアップもできたので、競争も沈下している感じを受けました。
それならば、DVDの最初のタイプであるDVD-Rを使えば、互換性が一番高くて、価格も安価で入手できるという考えが一般的になっているようです。
それに、当時、時代はDVDからBlu-rayに変わる風潮にあったので、ことさらこの分野で競争をしなくても良いというメーカの判断もあるように感じました。
2009年6月に再度同じ量販店を訪れました。
DVDコーナは2ヶ月の間に模様替えがなされ、1/3の面積がBlu-ray Discに変わっていました。
そこには、もはや、「+」のついたDVDブランクディスクはなく、「-」のみとなっていました。(2009.06.27追記)
 
【Blu-ray Disc】 (2007.12.09)(2009.08.31追記)
Blu-ray Disc(BD、ブルーレイ)は、DVDの5倍以上のデータ容量(1層25GB、2層50GB)を持つ直径12cmサイズのディスクです。
高画質の動画(ハイビジョンテレビ、ゲームの)保存・再生用として1999年7月にソニーとフィリップスで開発されました。
2年半後の2002年2月に、松下(現パナソニック)、パイオニア、日立、LG電子、サムスン、シャープ、トムソン(RCA)ら7社が加わり、BD規格が出来上がりました。
Blu-ray Discは、次世代DVDとも呼ばれ、地上波デジタル放送とフルハイビジョンデジタル放送の実用に伴い、それに耐えられる保存メディアとして注目されました。
Blu-ray Discでは、地上デジタル放送(1440×1080i、16.8Mbps)で3時間程度、BSデジタル放送(1920×1080i、24Mbps)で2時間程度のハイビジョン録画ができるようになりました。
 
『ブルーレイディスクの英語表記は、Blue-ray Disc ではなく、Blu-ray Discです。青の「Blue」をそのまま使っていません。「Blue-ray」とすると一般名詞に近くなって固有名詞としての認知が難しく、商標として公認されないおそれがあったためこの表記としたそうです。』
この表記が本Webで曖昧であったことを、T.I.さんからご指摘を受けました。ここに修正いたします。T.I.さんどうもありがとうございました。(2009.08.31)
 
 
この規格の製品が始めて販売されたのは2003年で、ソニーのBD(Blu-ray Disc)レコーダ「BDZ-S77」というものです。
 
【BDZ-S77の仕様】
・記録モード: 1080i、720p にて約2時間(24M bps max.)
        そのほか480p、480i、アナログ録画。
・デジタル信号入力: デジタルBS入力端子、IEEE1394(S200 = iLink)
・アナログ映像入力: S映像 x2、コンポジットx2
・映像出力: デジタルBS出力端子、D4 x1、S映像 x2、コンポジット x2
・寸法: 430W x 398D x 135H
・重量: 14kg ・消費電力: 65W
・価格: 450,000円
・カートリッジディスク: 片面1層23GB(3,500円)
 
3年後の2006年には、ソニーのゲーム機PS3(PlayStation3、当時59,800円)にBDが標準装備され、ブルーレイディスクによるゲームソフトの販売が開始されました。
この年からBDが飛躍的に売れるようになったそうです。
それまではハイビジョン画像のソースや受像機が普及しておらず、しかもDVDに比べて割高感があったため、それほど普及に加速がついていませんでした。
2006年は、次世代DVDの元年とも言えるべき年かもしれません。
 
パーソナルコンピュータで、2007年当時にBDを搭載していたのはソニーのみでした
PC周辺装置では、松下(現:パナソニック)がBD-R(Blu-ray Disc Recordable)ドライブを2007年7月に開発し、PC周辺機器製造メーカがそのモジュールを使って製造販売を開始しました。
2009年では、CD/DVDに加えてBlu-rayが読み書きできる内蔵/外付け装置が供給され、通常の感覚でBlu-rayディスクが使えるようになりました。(その後もPCに標準でBDドライバーを装備する気運はできず、インターネットとクラウドの急速な普及もあって2017年頃からのPCにはCD/DVDのドライバーを装備しないものが増えてきました。(2020.05.10追記) 
 
■ HD DVD (High Definition Digital Versatile Disc)
ブルーレイディスクと同様のメディアには、東芝(とNEC)が開発したHD DVD(High Definition DVD)がありました。
HD DVDはブルーレイディスクとほぼ同じカテゴリの製品で、両陣営は次世代DVDの覇権を争ってシェア獲得にしのぎを削っていました。
規格化の覇権を争う様相は、ホームビデオ装置のVHS vs ベータの競争に似たものがありました。
次世代DVDの開発初期は、東芝陣営のHD DVDが先行し、アメリカハリウッドの映画会社のほとんどは東芝規格の高品質DVDを支持していました。
それが、2005年を過ぎたあたりから雲行きがあやしくなり、HD DVDからBlu-rayへ乗り換える映画配給会社が増え出しました。
2007年12月のクリスマス商戦ではBD陣営に軍配が上がり、朝日新聞(2007年12月6日朝刊12面)は、「BDレコーダのシェアは98%(DVD全体では21.1%のシェア)」と報道しました。翌年、2008年2月19日に東芝から全面撤退の声明が出されました。
2009年、市場にはHD DVDの姿はありません。
 
■ Blu-rayの特徴
BDが HD DVD分野で勝利した要因はなんだったのでしょうか。
いろいろな原因が考えられますが、BDはデータ容量が大きかったことが第一にあげられると思います。
HD DVD(1層15GB)は、BD(1層25GB)の6割しか記録容量がありませんでした。
これがハリウッド映画業界での切り崩しに成功したと考えられています。
また、TDKが開発したハードコーティング技術(DURABIS)を採用したブルーレイディスクは、カートリッジレスに成功し、取り扱いと価格を魅力的なものにしました。
ハリウッド映画業界が一斉にBDになびいたことにより、HD DVD陣営は決定的な打撃を受けたと言われています。
Blu-ray陣営が勝利した第二の理由は、ソニーが自社のゲーム機プレイステーション3(PS3)にブルーレイ機能を搭載したことでした。
映画業界の浸透を援護するようにゲーム分野にもBlu-rayを浸透させるべく、魅力的な仕様と価格でPS3を世に出しました。
これによりBlu-rayで作られるゲームソフトも増えて行きました。
この分野での大勢が決まった2008年以降、コンピュータ分野でもブルーディスクを搭載したモデルが数多く出るようになりました
 
【Blu-ray 仕様】
・記録容量: 25GB(一層)、50GB(2層)
・ 使用波長: λ = 405nm青色半導体レーザ
       (DVDは、λ=650nm赤色半導体レーザ。CDは、780nmの赤外レーザ
・ 対物レンズN.A.: 0.85
          (DVDは、N.A. = 0.6。CDはN.A. = 0.45。Blu-rayは明るい光学系を使っている。
・ データ転送速度: 36Mbps
・ ディスクサイズ: φ120mm(CD、DVDと同じ)
・ ディスク厚さ: 1.2mm
・ ディスクセンタ孔: φ15mm
・ 回転数: 800 rpm 〜 2,000 rpm
・ 線速度: 4.917 m/s
・ 記録方式: 位相変化
・ 信号変調: 1-7PP
・ 映像フォーマット: MPEG-2
 音声フォーマット: AC3、MPEG-1
 
   
■ ハードコーティング技術を確立したTDK - DURABIS
ブルーレイディスクが開発された当初、ディスクはMOのようにハードカバーに覆われていました。
ディスクを裸(ベアディスク)で扱えるようになったのは、TDKが開発したハードコーティング技術のおかけだと言われています。
この処理によってブルーディスクもカートリッジレスになり、取り扱いが楽になって価格も安くできるようになりました。
ハードディスクコーテイング処理(DURABIS = Durability + Shield)は2002年に開発され、DVDディスクに応用されました。
DVDに採用されたハードコーティングは、DURABIS1と呼ばれるもので、ブルーレイではDURABIS2、放送局用のディスクにはDURABIS3と呼ばれるカテゴリーのコーテイングがなされています。
このハードコーティング技術は、スチールたわしでディスク面を100回こすって傷をつけても読み出しに影響がないと言われているものです。
また、この処理は指紋などの汚れに対しても汚れが付きにくい性質をもっていたり、静電気による帯電が起きにくくホコリの付着が極めてすくない性質を持っています。
このハードコーティングがどのような素材を使って、どのような手法で行われているのかは私自身よくわかっていません。
 
 
■ Disc - CD/DVD/Blu-ray のまとめ  (2009.09.17記)(2011.07.13追記)
CD、DVD、Blu-ray、(HD DVD)は、同じ延長線で進化を遂げてきたものです。 同じ延長線の意味するところは以下のものです。
 
1. 直径12cm、厚さ1.2mmのポリカーボネート円盤(ディスク)を使っている。
  記録面や記録手法に違いはあれ、形状は同一規格。
2. データの読み出し、記録にレーザ(半導体レーザ)を使っている。
3. 開発の主動機がオーディオ、及び映画コンテンツの録音/録画・再生であり、
  コンピュータメディアとしてではなかった。
4. 長時間にわたる連綿としたデータの読み出しが特徴。
5. 絶えず上位互換性が考慮されている。 つまり、DVDが開発されてもCDの読み書きができる機能が考慮され、
  Blu-rayの開発でもDVDとCDが読み書きできる対応が図られている。
 
3者は今のところ(2010年時点)互いを淘汰する気配がない。
ユーザは、目的に応じて最適なディスクを使用することができる。
 

 
 
▲ 3種類のレーザ光源
上記の3つのディスクは、高密度・高速再生という時代の要求に応えるために光源を代えてきました。
つまり、CDの時代は波長780nmの赤外レーザを使い、DVDでは650nmの赤色レーザを用い、Blu-rayでは405nmの紫外に近い青色レーザを使いました。
波長を短くすることによりビームスポットを小さくでき、同じ大きさのディスク面積内に高密度に情報を収めることができました。
CDが開発された時代は、赤外半導体レーザがで始めた時期で緑色や青色の半導体レーザはまだありませんでした。
CDが開発された1970年代後半は、半導体レーザに安定した高品質のものがなかったので、ヘリウムイオンレーザというガスレーザを使っていました。
ガラスのチューブでできたこのレーザは、半導体レーザに比べて大きく価格も2000倍以上しました。
レーザの低価格化が実現されなければ、光ディスク拡販は不可能なのは明白でした。
1960年代に着想され、1970年代に花開き、1990年代に大きな発展をみた半導体レーザ、それも青色領域の半導体レーザの実用化がなければ、一連のディスクメディアの大躍進はなかったことでしょう(レーザの項目参照、http://www.anfoworld.com/lasers.html)。
光ディスクの読み取り光源に一般の白熱電球を使ったとしたらどうでしょうか。
おそらくCDもDVDもBDも実用化できなかったことでしょう。
 
レーザがなぜ、光メディアになくてはならないものであったかの理由を以下に述べます。
 
1. 指向性、直線性がよいこと    - 集光レンズを組みやすい。微小スポットが作りやすい。検出精度が上がる。
2. 高密度であること    - 効率よい光学系を組み上げやすい。余分な光が散らばらないのでS/Nがよくなる。
3. 単一波長であること    - 色収差を考慮せずにすむ。ビームスポットも理論に近い値にすることが可能。
4. 波面がそろっていること    - 干渉をおこしやすいため、これを積極的に 利用して波長レベルの調整、検出が可能。
                ピットの高さを波長の1/4にして、S/Nを向上させている。
5. 偏光をもっていること    - 偏光を巧みに利用して信号検出の精度を向上させている。
 
 
▲ 大口径レンズ(高NAレンズ)
ビームスポットを小さくするための工夫として、レンズの開口数(N.A. = Numerical Aperture)を大きくしました。
N.A.は、理論的に空気中で最大1となります。
したがって、Blu-rayで使っているNA 0.85は極めて開口数の大きいレンズと言えます。
ピックアップレンズの開発もCD/DVD/BDの発展に寄与しました。
レンズは、組み合わせガラスレンズから、単一の非球面レンズ、プラスチックによるモールドレンズ、回折原理を利用したホログラムレンズ、回折レンズへと進化しました。
こうして、N.A.0.85という大口径で0.47umのビームスポットを作るレンズができました。
さらに、一つの対物レンズで3種類の光源(CD/DVD/BD用)に対応したオプチカルピックアップも製品化されました。
 
▲ ディスクの記録面
短波長発振レーザと大口径比のレンズの登場により、3種類のディスクでは記録面位置が変わりました。
すなわち、CDはディスク照射面から奥に記録面が配置されていたのに、DVD、Blu-rayになるにしたがって照射する面の近い位置に記録面が置かれるようになりました。
ビームスポットを小さくするには開口数を大きくして、かつ焦点距離の短いレンズ(f = 1.5mm〜2mm)を使わなければならないので、レンズとディスクの物理的距離は自ずと短くなります(上中央図参照)。
CDの記録面は、ディスクの裏面(レーベルの貼ってない面)から1.2mm(ほぼレーベル面)にあります。
DVDは、当初から2面の記録という設計思想があったので、0.6mm厚のディスクを貼り合わせる構造となっていて厚みの中心に2層の記録面があります。
2層の記録面は、実際は30um程度のスペーサ層と20um程度の半透明膜層で分離されています。
2層の記録面は、ミクロンオーダで駆動するアクチュエータで焦点調整を行って読み書きを行っています。
BD(Blu-ray)は、ディスク裏面から0.075mmと0.1mmの位置に記録面を2層持っています。
現在では、4層と8層による記録面を持つBDが開発されていて、これらの記録面はこの位置近傍に作られています。
上の図からわかるように、BDではディスク面の極めて近い位置にレンズが配置されています。
CDが開発された当時、ディスクの読み取り面にできる傷によってデータが読み取れなくなる心配がなされましたが、1.2mmの厚みのあるポリカーボネートの奥に記録面があるので、表面のキズはボカされてしまい大きな支障にはなりませんでした。
また、エラー訂正手法(EFM変調方式)によって確実にデータが読み取られるので、安定したデータの読み取りができCD普及に大きな貢献を果たしました。
 
▲ ポリカーボネート材質
CDディスクの開発にあたっては、材質の透明度と均質さがとても大事であったそうです。
つまり、ポリカーボネート材の均質な素材がCDの安定したデータ保存に大きく貢献したのです。
ディスク素材を決める中で、ポリカーボネート素材に行き着くまでにアクリルやポリエステルや光学ガラスなどが試されてきました。
アクリルはレーザディスクに使われていた材質で、ポリカーボネートに比べて吸湿性が大きく経年変化も大きかったため、このディスクの寿命は10年と言われていました。
フロッピーディスクやビデオテープと違い、光ディスクは透過型の記録媒体であるため、そしてミクロンオーダの微小な情報を読み込むために、光学的な品質が厳しく問われます。
磁気記録では問題にならなかった透過特性と均質性がとても大事でした。
光を透過/反射する材質に欠陥があったり、微小なゴミやボイド(気泡)、脈理(屈折率がことなる部位)があると、データを正しく読み取れなくなります。
また、材質が反ったり歪んだり、熱と湿度、光によって濁っても品質に大きな影響を与えます。
ポリカーボネートは、価格の点や製造の点、そして品質の点からCDの材質にもっともふさわしいものでした。
ポリカーボネートは、以後、DVD、blu-rayになっても素材として使われています。

 

 
これら3種類のディスクは、今後も必要に応じて使い分けられていくものと思われます。
ディスクドライブはそのためにすべてのディスク(CD、DVD、Blu-ray)を読み書きできるような対応が図られています。
半導体レーザでは一つの素子で3種類の発光ができるものが開発されたり、一つの対物レンズで3種類の光を希望する位置に集光するピックアップが開発されています。
 
       
↑にメニューバーが現れない場合、
クリックして下さい。
 
       
 
半導体による記録
【フラッシュメモリ(Flash Memory、Flash-EEPROM】 (2008.05.05記)(201108.15)(2020.03.13追記)
 
フラッシュメモリ(Flash Memory)は、正式名を Flash - EEPROM = Flash - Electrically Erasable Programmable Read-Only Memory と言います。
半導体素子メモリの中でROMの仲間に入り、電気的に書き換え可能なEEPROMです。
2000年あたりから急速な普及を見ました。
2011年の時点では、32GB容量のUSBスティックタイプのメモリが10,000円程度で入手できるようになりました。
2020年3月の時点では、USB3.1仕様の256GBメモリが10,000円で入手でき、UDB2.0対応の16GB容量は600円程度の価格に下がっています。
フラッシュメモリはまた、HDD(ハードディスクドライブ)に代わって、大容量のメモリドライブ装置(Flash SSD = Solid State Disk) を搭載したパソコンとして市販されるようになりました。
 
半導体メモリは、フラッシュメモリに限らず半導体素子ができた当初から現在に至るまで絶えず進化を遂げており、電子産業の中核を担っているものです。
半導体メモリそのものは、トランジスタができた1950年代当時からアイデアがありました。
トランジスタに電流を流し電位を保持し続け、メモリ効果を持たせるというものです。
しかし、この方法では、電気を流さないと情報は消えてしまいます。 電気を流さなくても情報が消えない半導体メモリのことを不揮発性メモリ(Non-Volatile Memory)と言います。 これは絶縁体の中にコンデンサ構造を持たせて、ここに電荷を保持させてメモリ機能を持たせています。
こうしたメモリは50年の歴史の中で数多く作られてきましたが、一様にメモリ容量が少なくて、書き込み/消去に時間がかかっていました。 従来の紫外線消去型EPROM(Erasable Programmable Read-Only Memory) は、データを消去するのに30分程度かかっていました。
 
フラッシュメモリは、こうした不揮発性半導体メモリの欠点をなくしたもので、メモり内容を一気に消去できるものでした。
データの消去がフラッシュのように消去できるのでフラッシュメモリと名付けられました。
いったん保存されたデータは、理論上10年程度は保持されます。
このフラッシュメモリを開発したのは、(株)東芝総合研究所の研究員であった舛岡富士雄 氏(ますおかふじお:1943年〜、東北大学名誉教授)で、1984年6月(特許出願は1980年)のことです。
フラッシュメモリの特許を巡っては、2004年に桝岡氏と東芝の間で訴訟が起きたのは有名なところです(2006年和解)。
なぜ訴訟沙汰になったのかというと、桝岡氏が東芝時代(1980年代)に発案して開発していた当時、東芝はこの製品に対して前向きではありませんでした。
発明の対価が誠意あるものではなく、冷遇されていました。
当時はDRAMが好調で、次代の製品としては過小評価にありました。
けれどこれが1990年代半ばに世界的なヒットとなって東芝にも大きな利益が生まれることになったため、正当な対価を公式に求めたのだと思います。
当時、東芝がこの発明を過小評価したのは、コンピュータ内部のDRAMやDROMに取って代えるには応答速度が遅く大容量メモリとしてHDDに置き換えるビジョンが見通せなかったのです。
失意にも似た形で桝岡氏が1994年に東芝を辞し東北大学に移られた頃から市場の機が熟して、現在のフラッシュメモリの時代が到来したのです。
桝岡氏のプロジェクトがうまく行かなかった当時、彼のスタッフの少なからぬ人数が東芝を離れて米国Intel社、Micron社、韓国Samsung社に移りました。
特に、韓国Samsung社には、1992年にNAND型フラッシュメモリの技術を供与しています。
Samsung社は、この技術を積極的に取り込み巨額の投資をしてDRAMと伴に世界のナンバーワンシェアを得るに至りました。
 
桝岡氏は、現在(2011年)、日本ユニサンティスエレクトロニクス社の最高技術責任者として、次世代半導体素子(3次元構造半導体)の開発に従事されておられます。
フラッシュメモリが最初に採用されたのは1985年の学会発表の後のことで、米国フォードモータースが関心を示し、エンジン制御用の半導体メモリとして使われたと言われています。
過酷な環境条件で使う信頼性の高い不揮発メモリとして白羽の矢が立ったものと思われます。
このように、フラッシュメモリは取り扱い勝手が非常に良いことから、デジカメや携帯電話のメモリ(SDカード)として、そして、パソコンの補助メモリ用のUSB対応のスティックメモリとして多く使われるようになりました。 その勢いはCD/DVD/BDを凌ぎ、HDDに迫るまでになっています。
 
フラッシュメモリが急速に普及している理由は、CDの640MB容量、DVDの4.7GB容量、BDの25GBと遜色ないデータ容量を持つメモリスティックが安価に出回るようになったことと、携帯電話とデジカメの急速な普及によると言われています。
フラッシュメモリの持つ持ち運びに便利でバッテリがいらず、そして簡単にデータを追記したり消去ができる機能も、普及を促す要因となりました。
フラッシュメモリは、上右図にまとめたように、使い勝手の良さから急速に需要を伸ばしています。
欠点である耐久性や書き込み速度の問題も、分散処理(ウェアレベリング = wear levelling)手法の導入や並列書き込み手法の導入によって実用レベルに達し、2011年の時点では、HDDと並んでデータストレージの両雄となり現在に至っています。
2020年時点では2TBのSSD(PC内蔵用、SATA IIIインターフェース)30,000円程度で販売されています。
   
 
▲ 半導体メモリの系譜 上の図は、半導体メモリの一覧を示したものです。
半導体の構造によってこのように分類されています。
半導体メモリは、トランジスタが発明された時代(1950年代)からありました。
しかし、データ保存用としての存在価値が薄かったのは、製造上、安価で大容量のものができなかったり、電源を切るとデータが消えてしまうという問題を持っていたからです。
データ保存媒体として望まれる性能は、電源を切ってもデータを保存し続ける不揮発性メモリでした。
   
 
 
■ 半導体素子を使ったメモリ
ここで、トランジスタ(半導体素子)を使ったメモリの基本原理について触れておきます。
右図は、デジタル素子を用いたメモリです。
フリップ・フロップ(Flip Flop)回路と言いますが、デジタル素子(NAND素子)を二つ使って1つの情報(データ)を保持する機能をもっています。
この回路は、デジタル回路でデータを保持する機能としてよく使われてきました。
コンピュータに採用されたSRAMは、この回路で作られています。
右図のフリップ・フロップ回路は、セットボタンとリセットボタンで構成されているため、R-S-FF(RSタイプ フリップ・フロップ)回路と呼ばれています。
フリップ・フロップ回路は、このほかにも幾種類かがあります。
RSフリップ・フロップでは、セットボタンを押すと押したという情報が保持されます。
その情報は、リセットボタンを押すまで保持され続けます。
こうしたフリップ・フロップを1ビットのメモリとして使ったのがSRAMです。
 
メモリには、先に示したトランジスタで状態を保持するタイプと、素子内部にコンデンサ(キャパシタ)素子を組み込んで、これに蓄えられた電荷で状態を保持するタイプの二種類があります。
電荷を比較的長く保持できるものがROMとなり、短い時間しか保持できないものは、都度リフレッシュして状態を保持させるDRAMとなります。
DRAMとSRAMは、別の項目「DRAMとSRAM」で説明します。
   
 
■ コンピュータに多用されたメモリ
コンピュータのそもそもの成り立ちは、プログラムを格納できるメモリの確保が大前提となっていました。
コンピュータの大きな働きは、膨大なデータを高速で処理することでした。
データの保存もプログラムを実行する処理にもメモリは大切なコンピュータ要素でした。
ノイマンが発案したフォン・ノイマン型コンピュータでは、データを予め決められた書式に従って処理しなければならず、これにはデータを格納する装置を演算処理の近くに配置しなければなりません。
コンピュータを構成する大切なコンポーネントとして電子回路による記憶装置が開発され、周辺機器としてカードパンチ、磁気テープなどが発案されました。
半導体メモリは、トランジスタの発明と共に成長を遂げました。
IC(集積回路)の発明によってメモリも小型になり容量も増えました。
右図にコンピュータに使われてきた半導体メモリを示します。
半導体メモリが考え出される前の記憶装置は、磁気コアメモリ(Magnetic Core Memory)が主流でした。
磁気コアメモリは、1949年にアメリカの物理学者An Wangと Way-Dong Wooによって開発され、IBMコンピュータ台頭と共にコンピュータの主記憶装置とし て1960年代を中心に1970年始めまで使われました。
 
1971年、米国インテル社から1kビットのDRAMが開発されます。
インテルは、現在(2009年)のパーソナルコンピュータに搭載されているCPUのシェアの実に80%を持つ巨大企業ですが、彼らの真骨頂は半導体メモリの開発製造にありました。
DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)、ROM(Read On Memory)などほとんどの半導体メモリがインテルによって開発され製造されてきました。
インテルの発明したDRAMの出現によって、半導体メモリの時代が始まります。 そして、それまで主流だった磁気コアメモリを駆逐してしまいました。
その理由は、半導体メモリの持つコンパクトさ、速いアクセス速度、低い消費電力、低価格、高信頼性など、すべてに渡って磁気コアメモリを凌駕していたからです。
 
 
■ 磁気コアメモリ(Magnetic Core Memory)
磁気コアメモリの拡大写真。
米粒大のフェライトコアをエナメル線で織り込んでメモり構造を作る。すべて手作業だった。
クレイの製作したスーパーコンピュータ(1964年)に搭載された64x64ビット(4kビット)の磁気コアメモリ。中心部の網の目の中に米粒大のフェライトコアが詰まる。モジュールの大きさは、106mm x 106mm。
資料提供: Wikipedia commons
1950年代から20年間にわたって、コンピュータの主記憶装置として使われていた磁気コアメモリというのはどのようなものだったのでしょうか。
磁気コアメモリには、記憶部としてドーナッツ状のフェライトコアが使われています。
このフェライトコアを直交2線のエナメル線が交わる交点に配置し、両方の線に流れる電流によってフェライトコアを磁化させてコアに電気信号を保存するというものです。
フェライトコアは、数ミリ程度から米粒ぐらいの非常に小さなもので、それに通すエナメル線も極めて細いものでした。
フェライトコア1ヶが1ビットの情報となるので、1kビットのメモリを得るには1,000個のフェライトコアが必要です。
これにエナメル線を通すという一種の織り込み作業を行わなければなりませんでした。
これらはすべて手作業だったそうです。
従って、当然高価なものでした。磁気コアの製造には、東南アジア諸国の安価な労働力があてがわれて市販化のメドがたち、一定の普及をみたそうです。
 
1960年代に登場した1kビットの磁気コアメモリの大きさは50cm x 50cm x 20cm程度でした。
この装置は、100Wの電力を消費していたそうです。
大型コンピュータでは、主記憶装置として10MB程度が必要だったので、この装置の設置スペースには15m x 15m程度、つまり、大きな会議室程度を確保しなければならず、電気設備も6,000kW(2,000家庭分の電力設備)という途方もない電力を必要としました。
10MBのメモリを稼働するのに、工場で使う電力が必要だったのです。
 
2009年時点のパソコンを見てみると、10MBのDRAMで動くものは見あたりません。
カバンで持ち運ぶノートパソコンにおいても2GB程度(2,000倍程度)のDRAMが搭載されています。
昔の観点から見たら、メモリは小さなバッテリでとてつもなく大きなメモリを動かしていることになります。
1993年に私が個人的に購入したパソコン(マッキントッシュLC III)は、4MBのDRAMが標準装備でしたが、まともに使えなくて30,000円で8MBのDRAMを追加しました。
12MBのメモリでなんとか動いた記憶があります。
 
DRAMは、年を追う毎に大容量・低価格化が進みました。
DRAMメモリは、コンピュータの歴史を変えたと言っても差し支えないでしょう。
このことは、逆に見ると、主記憶装置がコンピュータ発展の足かせとなっていたことを伺わせるエピソードです。
 
インテルは、このメモリの大切さを知っていたので、半導体メモリを開発する会社として、1968年に設立されました。
設立には、当時半導体メーカーであったFairchildセミコンダクター社の社員(ロバート・ノイス、ロジャー・ムーア、アンドリュー・グローブ)が退社して新会社を設立しました。
インテルは、設立1年後の1969年に64ビットのSRAMを開発し、1970年にDRAM、1971年にUV-EPROMを開発していきます。
お家芸のCPUは、1971年に4ビットマイコンを日本の嶋さんのリクエストで作り、それが引き金となって1974年に8ビットCPU 8080を開発します。
半導体メモリは、その後、日本の東芝が秀逸なものを作るようになっていったので、インテルは軸足をCPUに移して行くことになりました。
 
 
 
▲ RAMとROM
半導体メモリは、大きく分けて、
RAM(Random Access Memory)
ROM(Read On Memory)
の二つに分けられます(上図の半導体メモリ一覧表を参照)
両者は、揮発性メモリと不揮発性メモリと見なしてもよいほど性格が異なります。
RAMは電源を絶えず必要とし、電源がないとデータが無くなってしまいます。
ROMは、電源が無くてもデータを保持しています。
RAM、特に安価で大容量のDRAMは、コンピュータのCPUの近くに配置されて、テンポラリーな(一時的な)データを保存し処理するのに使われます。
DRAMはまた、高速でデータの読み書きができるので高速度カメラなどの高速でデータを収録する録画媒体として使われています。
 
実を言うと、DRAMはSRAMに比べて性能は劣っているのだそうです。
しかしながら、SRAMよりもDRAMが大きな普及を見たのは、一にも二にも価格だったそうです。
低価格であることが何よりも大きな需要を生むことをメーカは十分に見切っていて、DRAMのコンパクト大容量化に取り組んでいったそうです。
 
 
■ RAM - DRAMとSRAM
RAMのカテゴリには、SRAM(Static Random Access Memory)とDRAM(Dynamic Random Access Memory)の2種類があります。
SRAMは、■半導体素子を使ったメモリで紹介したように、半導体メモリの最初のものです。 DRAMは、構造が簡単で安価なものとして登場しました。
記憶回路にコンデンサ(キャパシタ)を組み込んで、コンデンサの電荷保持によって情報を保存しています。
以下にSRAMとDRAMの回路を示します。
図の左に示しているSRAMは、6ヶのトランジスタでフリップ・フロップ回路を形成し、1ビットの記憶領域を持っています。 SRAMの状態は安定していて、常時データを保持し続けることができます。
ただし、電源を落とすと、データは消えてしまいます。
方や上図の右に示したDRAMは、3ヶのトランジスタと1ヶのコンデンサ(=キャパシタ)によって1ビットの記憶回路を形成しています。 SRAMの回路に比べると、トランジスタの数が少なくシンプルです。
必然的に、製造コストが抑えられていて、同じスペースであるならばたくさんのメモリを実装できることになります。
ただし、DRAMは、データの保持がコンデンサにチャージされた電荷に依存しているため、時間と共に自己放電によって電荷がなくなってしまいます。
そのために、定期的にコンデンサに再チャージを行うリフレッシュが必要となります。そのサイクルは素子によって異なりますが、数HZから数十Hzです。
DRAMがDyamic(ダイナミック = 動的)と呼ばれるのは、このリフレッシュ作業を指しています。 SRAMは、この作業がないため、Static( = 静的)と呼ばれてます。
下図にSRAMとDRAMの比較を示します。
SRAMの方が電力を消費せずに高速動作ができる反面、コストが高く大容量化が難しいのが理解できます。
そうした理由から、DRAMはコンピュータの主記憶素子として少々動作が遅くしかも電気を消費することには目をつむって、安価で大容量であることが優先されて、触手を伸ばしてきました。
安価で大容量のDRAMは、主記憶素子としてコンピュータのCPUの近くに配置されて、テンポラリーな(一時的な)データを保存し処理を行うのに使われています。
DRAMはまた、高速でデータの読み書きができるので高速度カメラなどの高速でデータを収録する録画媒体として使われています。
今述べたように、DRAMはSRAMに比べて性能は劣っています。
しかしながら、SRAMよりもDRAMの方が大きな普及を見たのは、一にも二にも価格でした。
低価格であることが何よりも大きな需要を生むことをメーカは十分に見切っていて、DRAMのコンパクト大容量化に取り組んで行ったのです。
DRAMは、コンピュータメモリの需要で生産の拡大をはかってきました。
DRAMは半導体産業の「コメ」と呼ばれて来ました。
1980年代は日本のメーカが強く、2000年代に入ると韓国のメーカが市場を席巻するようになりました。
 
 
■ ROMの仲間 - フラッシュメモリ
フラッシュメモリは、上の体系図から見ると、ROMのカテゴリーの中の消去・書き込みが可能なEEPROM(Electrically Erasable Programmable Read-Only Memory)の仲間に入ります。
従来、半導体メモリの中でROMはRAMに比べてデータ容量が少なく、消去に時間がかかり書き込み時間が遅い、という特性を持っていました。
それがフラッシュメモリにおいては、メモリの消去が一挙にできて書き込みもそこそこ速い、という性能をもちあわせていました。
それに加え、データ容量もどんどん大きいものが開発されていきました。
需要がフラッシュメモリ改良の後押しをし、より高速で大容量、安価なものにして感じs感じを受けます。
半導体メモリは、トランジスタに電流を流して電位を保持し続け、メモリ効果を持たせるのが基本です。
しかし、この方法は、電気を流しておかないと情報が消えてしまいます。
電気を常時流さなくても情報が消えない半導体メモリのことを不揮発性メモリ(Non-Volatile Memory)と言います。
これは、絶縁体の中にコンデンサ構造を持たせて、ここに電荷を保持させ、これによりメモリ機能を持たせたものです。
こうしたメモリは、50年の歴史の中で数多く作られてきましたが、一様にメモリ容量が少なくて書き込みと消去に時間がかかるものでした。
紫外線を使った消去型EPROM(Erasable Programmable Read-Only Memory) は、データを消去するのに30分程度かかっていました。
それがフラッシュメモリで一瞬にしてデータを消去できるのです。
これを開発した桝岡氏が、「フラッシュ」と名付けた理由がよく理解できます。
フラッシュメモリの基本原理は、左図に示す如く、電荷を長期間保持できる浮遊ゲート部(コンデンサ部もしくはキャパシタ部)をMOSトランジスタ部に作り、そこに総じて高い電圧(約20V)を印加して電荷を保持させるものです。
1ビットのデータにコンデンサが1個あてがわれることになります。
データを保存する浮遊ゲート部は、ポリシリコン膜で形成され、外部とは電気的に絶縁状態となっています。
この浮遊ゲート部に高電圧をかけて、電子(= ホットエレクトロン)を注入し電荷を蓄えます。
扱う電圧が高いために、浮遊ゲート部の耐久性が問題になっていました。
 
 
■ NAND型フラッシュメモリ、NOR型フラッシュメモリ
フラッシュメモリは、歴史的に見るとNAND型とNOR型の二つに分かれます。
NORとかNANDという言葉は、デジタル素子の論理回路からきています。
デジタル素子では、「AND」、「OR」、「NAND」、「NOR」などの論理演算を行う素子が作られてきました。
フラッシュメモリにも、そうした論理演算手法が取り入れられているため、このような名前となりました。
フラッシュメモリは、NAND、NORの他、ANDタイプやDI-NORタイプも開発された経緯があります。
現在では、NANDとNORタイプが主流であり、マーケット的にはNANDタイプが大勢を占めています。
NAND型は、東芝が中心になって開発を進め、NOR型は米国インテル社が開発を進めました。
両者は、それぞれに一長一短があり、普及にしのぎを削ってきました。 両者の違いを簡単に述べると次のようになります。
NAND型は、メモリを数珠つなぎ状に構成するので、一括した読み書きが得意です。
つまり、ランダムアクセス(任意にデータを読み書きする機能)ができず、ブロック単位での読み書きしかできません。
しかし、製造上集積化が容易なのでコンパクトで大容量化に向いています。
NOR型は、NAND型とは逆にメモリ1個ずつアクセスできる構造となっています。
そのため任意のビットにアクセスすることができランダムアクセスを得意としています。
反面、ビット1個の占める占有面積がNAND型に比べ大きくなるため、高集積化は得意ではありません。
NOR型は、高速性に優れて(速度はSRAM相当)ビット単位でのアクセス性能に優れています。
NAND型は、メモリスティックやSDカードなどの外部メモリとして普及し、NOR型は携帯電話などの小型機器の内部に組み込むメモリとして使われています。
東芝が1988年に開発した4MビットのNAND型フラッシュメモリは、デジタルカメラに使われました。
昨今(2011年)では、携帯音楽再生装置(iPod、iPad)やスマートフォン、コンパクトデジタルカメラの急速な普及により、NAND型フラッシュメモリの需要がより一層喚起されています。
 
▲ MCP(Multi-chip Package)- メモリ高集積化技術
フラッシュメモリが大躍進を続けている裏方の技術として、メモリの高集積化技術が上げられます。
この技術の一つにシリコン基板を何層にも積み上げて、小さなチップに高い集積度を持たせる高層化技術があります(右図参照)。
2004年1月には、東芝が9層構造を開発しました。
パッケージは、11mm(巾)x 14mm(長)x 1.4mm(厚)の大きさで、1.4mmの厚さに6層のチップと3層のスペーサを積層させています。
ウェハー基板の厚さは70umの薄さで、この薄さの上にメモりを作りあげ集積化を図っています。 70umもの薄いシリコンウェハーはどうやって作るのでしょう。
右の電子顕微鏡写真を見ると、50um程度の細い金線が180umピッチでボンディングされているのがわかります。
ワイヤーボンディングの技術もミクロンオーダの制御で行っていることを伺わせます。
こうした技術にあやかって、USBフラッシュメモリでは32GBまでの容量を持つものが市販されるようになりました(2011年時点)。
また、デジカメ用メモリのに使われるSD/SDHCカードも32GBを持つものが販売され、新しい規格であるSDXC(2009年策定、XC = eXtended Capacity)ではexFAT(extended File Allocation Table)を採用し、2TB(テラバイト)までの容量を確保できるようになりました。
 
 
 
▲ NAND型フラッシュメモリの多値化技術(MLC = Multi Level Cell)
NAND型フラッシュメモリの高集積化技術の一つに、多値化技術があります。
従来の半導体メモリは、一つの素子に対して1ビット(電気を保存しているか"1"、そうでないか"0"の2種類)の情報しか持ち得ませんでしたが、この技術はしきい値を4レベルに設定して2ビットの情報を1つの素子に持たせるものです。
多値化技術により、高い集積度を得ることができ、大容量化とメモリ製造価格の低減を実現させました。
MLCに対応する言葉として、従来の1ビットメモリ方式のものをSLC(Single Level Cell)と呼んでいます。
MLCとSLCを比べると、MLCは集積度が上がり、単純計算で同じサイズで倍のメモリ容量を持つことができます。
反面、MLCは、読み込みと読み出しが複雑になる分、読み出し速度と書き込み速度が遅くなります。
また、電荷を蓄える浮遊ゲートに負荷がかかる分、書き込みのできる回数が少なくなり、SLCの100,000回に対して、MLCは1桁少ない10,000回と言われています。
 
▲ フラッシュSSD(Solid State Drive、Solid State Disk)  (2011.08.12)(2020.03.10追記)
ハードディスクドライブ(HDD)を半導体メモリで置き換えた装置が、フラッシュメモリによる外部記憶装置であり、これをSSDと呼んでいます。
SSDは、小型ハードディスクドライブと同程度のデータ保存容量(80GB〜3TB)を持ち、半導体メモリの特徴を活かした装置です。
SSDには、磁気ディスクのようなモータ、磁気ヘッドアームなどの可動部がなく、低消費電力でランダムアクセスが速い、そして起動が速いという特徴を持っています。
SSDの欠点は、下の表にも示した如く、高価なことです。
また、フラッシュメモリの原理上、データの書き換えに高電圧を使うためメモリ部であるキャパシタに耐久性上の問題があり10万回の使用でメモリが使えなくなることが指摘されています。
この問題を回避するため、SSDにはコントローラが内蔵されていて、特定のメモリ部に読み書きが集中しないように管理が行われています。
 
SSDは、データの書き込みに時間がかかります。
これもフラッシュメモリの原理上の問題であり、キャパシタ部に蓄えられた電荷を一旦解除して、再度メモリに書き込むという動作をする必要があるからです。
このため、SSDでの書き込み(や読み出し)は、メモリコントローラ(バッファメモリと並列処理)により相対的な読み書き速度を高めています。
SSDのもう一つの欠点は、「プチフリ」と呼ばれる現象です。
データをSSDに書き込むとき、データの書き込みが集中する際に一時的にフリーズする現象です。 これは、初期の頃のSSDや廉価なSSDに見られるもので、信頼おけるSSDではプリフリを回避する制御機能がコントロール部に搭載されています。
 
フラッシュSSDが最初に市販化されたのは、2001年のことです。
そのデバイスは、Adtron社(米国アリゾナ州フェニックス、1985年設立。2008年SMART Modular Technologies社の傘下)が開発したモデルS35PCというものでした。
この製品は、以下の仕様で作られました。
 
3.5インチタイプ、
SCSIインタフェース出力、
14GBの容量
 
この製品は、当時42,000ドル(約4,500,00円)の価格でした。
この装置は、北海油田のパイプライン敷設工事の検査工程に使うコンピュータのディスクドライブとして使われたそうです。
劣悪な自然環境条件での使用を考慮して、信頼性の高いSSDをシステムディスクとして使うことを決めたそうです。
Flash SSDは、その後進化を遂げ、2008年には東芝から512GB容量のものが開発され、2009年5月に東芝のPCに搭載されて販売を開始しています。 2008年に発売されたフラッシュSSDは、以下の性能を持ったもので10万円を切る価格で販売されていました。
 
・ 形状: 1.8インチカードタイプ(右写真:東芝)
・ データ容量: 128GB
・ 書き込み速度: 40MB/s max.
・ 読み出し速度: 100MB/s max.
・ インタフェース: serial ATA
 
2011年の時点では、フラッシュSSDの256GB容量のものは60,000円から90,000円程度で販売されています。
SSDパッケージの形状は、HDDと同じ取り付けサイズを採用して、3.5インチ、2.5インチ、1.8インチケースが用意されています。
データ通信のコネクタは、SATA(Serial Advanced Technology Attachment)が採用され、従来のHDDと互換性を保つように設計されています。 フラッシュSSDの問題点は、大容量化と価格、それに信頼性です。 半導体メモリは、磁気ディスクと比べるとどうしても割高になります。
また、メモリの消去や書き込みにホットエレクトロンという高い電圧を使うために、データ保存部が劣化して書き込み回数に限界があるという問題も抱えています。
2011年にあっては、以下に示すような製品が市販化されています。  
 
フラッシュSSDのライバルは、意外にもUSB2.0接続のメモリスティックタイプのフラッシュメモリです。
このタイプが32GB程度(10,000円程度)になって安価に市販されています。
こうしてみると、フラッシュSSDは360GB程度の容量がないと魅力に感じなくなっています。
ただこの容量になっても、同じ容量を持つHDDの価格が2011年時点で1万円〜2万円程度なので、普及するにはまだまだ時間がかかりそうです。
■ SSDと各種メモリの読み出し/書き込み速度の比較
右図に、大容量メモリの読み出し速度と書き込み速度の比較を示します。
フラッシュメモリを使ったものには、SSD、SDカード、USBメモリ、PCI ExpressカードによるSSDなどがあります。
フラッシュメモリを使ったメディアは、総じて読み出し速度が速く、USB3.0仕様のUSBメモリタイプで70MB/sの読み出しを行い、USB-C 3.1仕様の高速SSDでは500MB/sの読み出しができます。
一般のSSDは、これよりもスピードは落ちます。
フラッシュメモリで最も高速なものは、PCI Express規格によるボードタイプのものです。
このSSDは2GB/sの読み出しができ、書き込みも1GB/sの性能を持っています。
そもそも PCI Expressは従来のPCI規格の16倍の転送速度をもつもので、6GB/sの能力をもっています。
フラッシュメモリにそこまでの性能はありませんが、SSDの性能を極限まで引き出せる規格のものと言えます。
 
光学ディスクのCDやDVD、Blu-rayは、SSDに比べると2桁ほど読み出し速度が遅くなります。
光学ディスクは、カーボネート円板を回転させてレーザ光で微細に穿たれたピットを読み取るという方式を取っているため、SSDのような高速読み取りはできませんし書き込みも遅く、ランダムな書き込みもできません。
光学ディスクは映画などの動画や音楽ファイルのような一連の連続したファイルの読み込みや読み出しを得意としています。
カーボネート製のディスクも100円から300円程度と安価であることから、大量に配布する目的に使われます。
 
HDDは、SSDが登場するまでは高速大容量のメディアとしてコンピュータの主要周辺機器として君臨してきました。
需要に応えて価格も低価格になり、500GB、1TB、2TBも気軽に購入できるようになりました。
しかし、このHDDも今後はある程度の割合で役割をSSDに譲って行くものと思います。
HDDは、SSDに比べて価格と容量の点で魅力的なものの、読み出し速度はSSDの半分から1/4程度となり、システムを立ち上げる時やハードディスクを使って大きなアプリケーションソフトを立ち上げる時に2倍から4倍がかかってしまいます。
SSDの価格が下がってくれば、電力を消費せず衝撃にも強い特徴が活かされる携帯機器に使われるようになるでしょう。
 
 
■ SDメモリカード (2020.03.13記)
フラッシュメモリの需要を引き上げたのは、SDカードの登場と言えましょう。
SDカードは、デジタルカメラや携帯電話の記録媒体としてたくさんの需要を喚起し供給されました。
SDカードは、NAND型フラッシュメモリを採用したメモリーカードです。
名前の由来は、東芝が構築したDVDの光ディスクの流れを汲んだ「Super Density Disc」から来ています。
ロゴも光ディスクの図案を彷彿とさせます。
SDメモリカードは、1999年8月に松下(現:パナソニック)、サンディスク(現:ウェスタン・デジタル)、と東芝によるSD Groupによって規格化されました。
SDカードの前身にサンディスクとドイツのシーメンス社開発したMMC(マルチメディアカード、1997年)がありました。
SDカードは、MMCの後継機種と言えます。
1999年と言えば携帯電話が急速に普及している時代で、コンパクトデジタルカメラも普及している時代でした。
これらの普及にフラッシュメモリは大きな役割を果たし、SDカードが急速に受け入れられて行った背景がありました。
ちなみに、SDカードが開発された時期に開発された他のフラッシュメモリカードとしては、以下のものがあります。

 

 

・ マルチメディアカード(MMC): 1997年、ドイツ・シーメンス社とサンディスク社の開発。
・ スマートメディア(SmartMedia):1995年、東芝が提唱。デジタルカメラや音楽プレーヤー。
コンパクトフラッシュ(CF): 1994年、サンディスク社。SDより大型。
・ メモリースティック(MS): 1997年、ソニーが開発。
・ xDピクチャーカード(xD): 2002年、オリンパスと富士フイルムによって開発。
・ SIMカード : 携帯電話に採用。
・ICカード(ICC): クレジットカード、電子カード組み込みIC。
 
これら競合製品と比べて、なぜSDカードが勢いを得て大きなシェアを獲得していったのかと言うと、SDカードはライセンス料を安価に設定したことと、そしてmicroカードを投入して携帯電話に採用したことが大きいと言われています。
 
SDカードの形状は、上左図に示したような寸法で規格化されています。
図にはSDとmicroSD(2006年発売)の二種類を載せていますが、規格ではその中間サイズのminiSDもあります。
ただ、miniSDは2009年以降の規格には採用されていません。
microSDがminiSDに取って代わったので、その役割を終えました。
標準のSDカードは、カメラやPC のメモリとして使われていて、microSDは携帯電話やカーナビゲーション装置に使われています。
 
開発された当初(1999年)は2GB容量だったものが(SDタイプ)、容量の拡大化に伴って32GB容量のSD HC(2006年)ができ、2TBまでのSD XC(2009年)を経て128TBまでのSD UC(2018年)が規格化されました。
SDカードは、これまでに4回の容量帯拡張を行ったことになります。
ファイルフォーマットは、初期のSDはFATでフォーマットされ、SDHCではFAT32、そしてSDXCとSDUCではexFATでフォーマットされます。
これらのフォーマットによって、割り付けられるデータの最大容量が決まります。
 
メモリーの大容量化に伴いデータ通信の高速化も図られ、バスインターフェースが6度に渡って見直され(規格バージョン:SD1.0、SD1.1 、SD3.0、SD4.0、SD6.0、SD7.0)、都度速度が上がり、12.5MB/sから985MB/sまで段階的に向上しました。
物理的には、データ転送を行うピン配列の変更がなされ、そしてクロックスピードを上げて行きました。
データ転送のピン配列の変更は、UHS-IとUHS-IIの2回です。
UHSは、Ultra High Speedの略です。
UHS-IIでピン配列を増やし、またそれぞれバスクロックを上げて最低速度を保証しています。
下の図のピンレイアウトに両者の変更を示します。

ピンレイアウトは2種類あり、初期(ノーマルとSD3.0で規格されたUHS-I)のものは1段配列(第一ロウ)のみの9ピンとなります(microSDカードは8ピン)。
後期のもの(SD4.0で規格されたUHS-II)は、2段配列(第一ロウと第二ロウ)となっていて、第二ロウに8ピンが追加されてバス数を多くし高速化を図りました。(microSDカードも同数の8ピンが第二ロウに追加されています。)
UHS-IIは、UHS-Iの上位互換であるので、UHS-II規格のSDカードをUHS-Iのホスト(PCやデジタルカメラなど)に使うことができます。
これはUSB3.0とUSB2.0の関係と似ています。
UHS-III(SD6.0で規格)は、内部のクロックを向上させたもので物理的なピンレイアウトはUHS-IIと同じです。
SD7.0(仕様規格)では、PCI Expressバス(PCIe Gen.3)に直接接続するSD Expressバスとなってさらなる高速データ転送が可能となっています。
 
 
上図はSDカードの表面です。性能が細かく表記されています。
この表記によってカードの性能を知ることができ、データ容量や転送速度を確認して目的に応じたものを使うことができます。
SDカードの性能向上の大きな理由は、ビデオカメラの記録媒体としてニーズが高まったことが挙げられます。
2006年11月に、パナソニックからHDC-SD1というSDカードを搭載したデジタルハイビジョンビデオカメラが発売されています。
同時期には姉妹機HDC-DX1も発売され、これは8cm径のDVDを記録媒体にしたものでした。
DVDディスクも揃えたビデオカメラリリースがあった2006年が、SDカード装着のビデオカメラ元年と言えましょう。
 
スピード表記は、SDカードの性能向上とともに、ビデオカメラの記録媒体がビデオテープからSDカードに取って代わられるようになり、ユーザの持つビデオカメラに最適なSDカードが使えるように施されるようになったものと思われます。
容量ロゴの表示から、HDビデオ、4Kビデオ使用時の目安がわかり、ビデオスピードクラスでは連続録画の際のデータ保存速度を確認することができます。
例えば、V30表記では30MB/sのデータ保存ができるため(これはBlu-Rayディスク4.5MB/sの6.7倍の書き込み速度)、MPEG4などの圧縮した動画像をSDカードに保存する場合に、動画像が30MB/s以下のデータ量であればコマ落ちすることなく保存できます。
ちなみに、V6の性能では4K(4096 x 3072画素)の撮影が可能であり、V60以上では8K(7680 x 4320画素)の撮影が可能となります。
 
アイコンで描かれた2種類のスピードクラス(「C」文字の中に記された数字の表記 = スピードクラスと、「U」文字の中に記された数字の表記 = UHSスピードクラス)は、ビデオ機器以外のデータ転送の際の速度目安を示したものです。
挿入される機器がUHS対応である場合とそうでない場合の速度を示しています。
 
Class表示されるスピードクラスは4種類で、UHSのスピードクラスは、クラス1とクラス3の二種類です。
これらの表記は最小データ転送速度を示したものであり、実際はそれ以上の性能を発揮します。
それが表記の「読み取り速度」で示されています。
 
しかし、この速度はいつも達成できるものではなく条件によっては達成できないこともあるので、一つの目安としてとらえるべきだと思います。
ビデオ画像のおよその録画時間は、32GB容量のSDカードを使って、標準画像(Standard Definition, SD、1024 x 576)で約11時間、フルHD動画(1980 x 1080)で約5時間10分、4K動画(4096 x 3072画素)で約60分となります。
これらはおおよその目安であり対象物の圧縮度合いによって変わります。
この換算では、動画圧縮は1/100程度となります。
 
 
■ コンパクトフラッシュ(CompactFlash, CF)(2020.03.13記)
コンパクトフラッシュは、小型カード型インタフェースとその規格です。
1994年にサンディスク社が開発しました。
登録商標なので、他メーカーはコンパクトフラッシュという言葉が使うことができず、CFカードやCFと呼んでいます。
大きさがPCカードの1/3とコンパクトであったため、コンパクトフラッシュと言う名前がついたそうです。
しかし、上記で説明したSDカードに比べると横方向が倍程度の大きさとなっています。
カードの上面部にデータ転送や電源の50ピンが配列されていて、それまでの68ピンのPCカードと電気的な互換をもたせているため、PCカードへの変換アダプターが用意されていました。
コンパクトフラッシュは、主にデジタル一眼レフカメラのメモリカードとして普及し、上で述べたSDカードは小型のコンパクトデジタルカメラに採用されました。
SDカードが出始めた当初は、コンパクトフラッシュの方が大容量でかつ高速データ転送が行えました。
SDカードの高速化と大容量化に伴い、徐々に役割を終えつつあるとは言え、2020年3月時点の高級デジタル一眼レフカメラ(Canon 1DX mkIII、Nikon D6)には、CFexpressカード(type B)が標準で採用されています。
高級デジタル一眼レフカメラでは、CFexpressカードの他に、この種のカメラで使われているXQDメモリーカードも採用されています。
 
 

       
フィルムによる記録  (2010.06.19)(2020.06.05)(2022.11.21)(2023.11.04追記) 
 
光の記録原理 その3 - - - 2次元記録(銀塩フィルム)
 
 
 
■ 1840年代から180年続いた銀塩感光材 (2002.02.17)(2009.11.23)(2020.05.16)(2022.11.21)(2023.11.04追記)
映画用35mmフィルム。映画館で使われるフィルムは、上のようなフィルム缶に入れられて配給、保管される。フィルム缶にはコアに巻かれたフィルムが入っていて、上映時に映写機に取り付けてフィルムを回す。撮影も同様なコア巻のフィルムがカメラに装てんされる。
CCD/CMOSカメラを使ったビデオ画像やデジタル画像が全盛となった時代にあって、1900年代を彩ったフィルム銀塩感光材はどのような位置づけにあるのでしょうか。
フィルム銀塩感光材は、140年の歴史(1879年 〜 )をもちます。
(銀塩感光材料そのものは、1830年代後半からで180年(1839年 〜 )の歴史を持っています。)
 
銀塩感光材の支持体は、最初、ガラス、もしくは紙でした。
これがセルロイドフィルム支持体に置き換えられたのは、1879年のカールブット(John Carbutt、1832 - 1905、英国の写真家)が始まりとされています。
 
セルロイドフィルムをロール状にして連続撮影に適したものに作り上げたのが、米国のジョージ・イーストマン(George Eastman: 1854 - 1932)で、1888年のことです。
彼は商才にたけた人で、「Kodak」(コダック)という誰にでも発音できる商標(ブランド)を作り、Kodakブランドでロールフィルムを大々的に販売促進しました。
Kodakは二つの大きな世界大戦(戦争)を通して、そしてまた、時流に乗った映画業界を通じて大きなマーケットのイニシアチブを握り、フィルム感光材の世界的シェアを獲得していきました。
 
各種フィルムパッケージ
上: 135タイプ 通常のフィルムパトローネ
左下: 120タイプブローニー 中判カメラ用
下: 4x5シートフィルム
    
 
 
 
■ テレビの話
片やテレビカメラはフィルムの興隆に遅れること約70年。
ドイツ人物理学者ブラウン(Karl Ferdinand Braun: 1850 - 1918)がテレビの受像管の原形となるブラウン管を発明した1897年をテレビ元年だとしていますが、この時、画像は映し出されていません。
テレビカメラ(撮影機)がなかったからです。
テレビカメラが曲がりなりにも組み上がって、テレビ実験に成功したのは1920年です。
本格的なテレビカメラができるのは、1931年の米国人発明家フランスワース(Philo.T.Fransworth: 1906 - 1971)のイメージディセクタチューブ(テレビカメラ撮像管の一つ)の開発からです。
その後、ビジコン(Vidicon)と呼ばれる有名な撮像管が、RCA社のワイマー(Paul.K.Weimer: 1914 - 2005)によって1950年に開発されます。
このカメラとブラウン管の開発で電子画像が見られるようになりましたが、画質はフィルム画像に比べて及ぶべくもありませんでした。
テレビ画像が記録できるビデオテープレコーダ(VTR = Video Tape Recorder)の開発は1953年のことで、米国RCA社が4トラック方式のカラーTV録画の研究発表をしたのに端を発します。
その3年後の1956年に、米国Ampex社が4ヘッドバーティカルスキャン方式のVTRを開発し、実用に耐えるビデオテープレコーダの完成を見ました。
Ampex社は、従来の音声記録で主流になっていた磁気ヘッドを固定して磁気テープを走行させるという方式を改めて、磁気ヘッドを回転させるという発想で固定ヘッドの諸問題を一気に解決しました。
録画、再生ヘッドを固定していたのでは膨大な信号を処理できなかったのです。
 
従って、記録と再生が行える電子画像の歴史は68年程度(1956 - )ということになります。
 
ビデオテープレコーダの開発のきっかけは、1950年代米国で始まったテレビ放送です。
米国東部と西部とのTV放送時差を解消する手段として、テレビ番組の録画方式が考え出されました。
RCA社(サーノフ会長)では、1951年当時、三大重要研究項目の一つとして、VTR開発の指示が出され(彼はこれをVideographと名付けた)、2年後の1953年に研究成果の発表がなされたと言われています。
その後の50年間におけるビデオ画像の歴史、特にデジタル画像機器の躍進はめざましいものがあります。
ビデオ画像は、正確に言うとアナログ画像とデジタル画像の2種類があります。
ややもするとビデオ画像は「デジタル」と思われがちですが、両者は歴然と違います。
「デジタル」と「アナログ」の違いは、『AnfoWorldオムニバス情報3 - デジタルについて』を参照してください。
 
 
■ テレビ映像とフィルム映像の世界 (2023.11.04追記)
ビデオ画像は、即座に見られるという利点が生かされるメディアです。
今では当たり前の特徴も、2000年までは画質ではフィルム画像が優位に立っていて、そのフィルム画像は現像処理が必要でした。
この両者の特徴によってそれまで棲み分けがなされてきました。
しかしながら、アマチュア向けの世界では安価なデジカメとパソコン・プリンタによるシステムがパソコンの台頭(1990年代後半)とともに主役の座を占めるようになり、写真の領域を浸食して来ました。
2007年6月、iPhoneの発売はデジタル画像の世界を一気に浸透させた革命的な出来事でした。
銀塩写真は、1860年代にあっては一生に一度写真に収まるかどうかという宝物でした。
1950年代から家庭に写真機が普及し、1970年代からはご婦人でも露光条件を気にすること無くシャッターを押すだけの自動機械になりました。
そしてコンピュータ時代の到来とともに、そしてCCD撮像素子、CMOS撮像素子の開発とともにデジタルカメラの時代となりました。
1990年代後半以降がその時代(デジタル映像の時代)と言えましょう。
2007年以降は手軽にスナップ写真がとれ簡単にインターネットにあげて瞬時に世界中に拡散できるようになりました。加えて動画(ムービー)も簡単に扱えるようになりました。
デジタルカメラの普及は、以下の要因に依るものだと考えます。
 
1. デジタル技術の普及(CPUと処理回路の高速化と低価格化)(1980年代以降のマイクロCPUの開発)
2. デジタル記録媒体の普及(1990年代以降、CD、DVD、BDの光学媒体から半導体フラッシュメモリの普及)
3. CCD、CMOS撮像素子の高性能化と普及(2000年代以降のCMOS撮像素子の普及)
4. ネットワークの普及(1990年代後半以降、インターネット、無線通信、クラウド、Wi-Fi通信)
5. スマホの普及(2007年以降)(液晶ディスプレイ、リチウムイオン電池)
 
デジタルカメラは、画質もそこそこにあって、それにもまして簡便で小型であるため携行に便利です。
デジタル画像が1000 x 1000画素を超えた時点(1990年代後半)がフィルム写真からデジタル画像変わって行ったターニングポイントだと思います。
アマチュアの世界では、画質よりも安価であることと簡易であることが好まれます。
ポラロイド写真に代表されるインスタントフィルムは、簡便ではあったものの思ったほどシェアを伸ばせませんでした。
その理由は、ポラロイドフィルムは一枚あたりの写真が高価であり、その上「焼き増し」というプリントができなかったのです。
ここにデジカメの入る隙を作ったのです。
デジカメは、100万画素を超えるカメラが5万円台で入手できる頃(2000年始め)から急速な発展を見ます。
プリンタも3万円台の価格で写真画質並みのプリントを提供するようになりました。
Windowsマシンが10万円代で購入できる社会環境が整う2000年代後半に、堰を切ったようにデジタル画像がシェアを拡大していくようになったのです。
1990年代後半に普及したインターネットも画像を多く載せられるようになり画像、動画の時代が始まりました。
2020年にあっては、写真をプリントしておくよりも大容量のスマートフォンのメモリに保管したり、クラウドで膨大な画像や動画を保存して、都度検索して閲覧できるようになりました。
 
そうした中で、フィルムの生き残る可能性はあるのでしょうか?
フィルムは2020年時点で、以下のような応用で使われています。
 
● コマーシャルフォト - 広告宣伝、グラビアなどの写真撮影。4x5インチの大判カメラ。
● 映画 - 劇場映画。35mmフィルム、70mmフィルム。(IMAXカメラ。「ダンケルク」「トップガン」など)
● アマチュア・プロカメラマン - 風景、ドキュメンタリー。ライカサイズカメラと135タイプフィルム。4x5インチの大判カメラ。
● コマーシャル撮影 - テレビで放映するコマーシャル。35mm映画カメラとフィルム。
● アマチュアスナップ - 「写ルンです」(1986)、APSフィルムチェキ(1999)     
 
 
 
【米国における16mmフィルム高速度カメラのこだわり】
スプールに巻かれた16mmフィルム。日中でのカメラ装てんができたので、高速度カメラに使用された。16mmフィルムは、フィルムの両端にパーフォレーション(孔)が刻まれていて、これでフィルムを引っかけて送っていた。
日本での高速度カメラの現状は、デジタル高速度カメラを中心としたデジタル画像が一般的になっていて、フィルムカメラを使ったユーザは少なくなってきています。
しかしながら、カラー撮影で5,000コマ/秒以上が欲しいユーザーや、35mmフィルムを使って美しい高速度撮影をしたい映画関係やコマーシャル関係、それに宇宙開発関係では未だその存在を誇示しています。
 
 
2002年1月、米国の「Photonics Spectra」という月刊雑誌に面白い記事が出てたので紹介しておきます。
この記事によりますと、米国の研究機関では依然としてフィルムを使った高速度カメラが現役で活躍していることがわかります。
非常に興味ある記事だったので、抄訳を以下に載せておきます。
日本では、2002年にあってはほとんど使われなくなった16mm高速度カメラですが、彼らは彼らなりのこだわりと理由を持って高速度フィルムカメラの存在を認め、それらを現役として今だに利用している事実に感銘を受けました。
 (なお、フィルム高速度カメラのトピックは、「AnfoWorld歴史背景とトピック」を参照下さい。)  
CCDs vs. Film for Fast-Frame Impact Testing,
      by Brent D. Johnson(pp.58- 60, December 2001, Photonics Spectra)
       - 衝撃試験に使われている高速度フィルムカメラと高速度ビデオカメラ -
 
自動車安全実験では、1960年代初めより高速度カメラが使われている。
Arlingtonにある高速道路安全保険協会(The Insurance Institute for Highway Safety)では、16mmフィルムを用いた高速度カメラLocam(Visual Instrumentation Corp. 製)を使用して500コマ/秒の画質の良い映像を得ている。
また、この施設には、スイスWeinberger社の高速度カメラも所有している。
「Locamで撮影した映像は、ビデオに変換録画した際に最高の画質を提供してくれる」 と担当者のPini Kalniteは語っている。
この協会では、CCDタイプの高速度ビデオカメラの導入を検討しながらも、今なお高速度フィルムカメラの持つ高画質にこだわり、現像、ビデオ編集という問題にも敢えて目をつぶり使用している。
National Highway Traffic Safety Administration's Vehicle Research and Test Center(オハイオ州 East Liberty)では、車の安全衝突実験に12台の16mm高速度フィルムカメラ(1,000コマ/秒は、Photo Sonics社製のもの、5,000コマ/秒のカメラは、Visual Instruments社製の Hycam)を使って撮影を行っている。
 
航空機分野では、NASA Langley Research Center(ヴァージニア州Norfolk)で14台のミリケンカメラ(Miliken)が航空機衝突試験に使われている。
NASAはこのカメラを1970年代に導入したが(今から30年以上も前!)、改良しながら現在に至っている。
彼らは、この高速度フィルムカメラを現在主流になっているCCDタイプの高速度カメラに代えるつもりはないという。
理由は、CCDタイプの高速度カメラの解像力が、現行のフィルムカメラで撮影した画像を2500x1500画素でデジタル画像に変換したものに比べ画質が劣ること、そして、CCDカメラのメモリが2秒間の撮影しかできず、彼らの請け負う実験がとても高価でミスが許されないため。
メモリタイプのCCD高速度カメラでは、トリガタイミングがずれた場合の記録ミスが致命的になるのを憂慮しているため、と言う。
 
列車の脱線試験を行っているサンディア国立研究所(Sandia National Laboratory)では、やはり16mmフィルムを使った高速度フィルムカメラを使っている。
この研究所では、放射性物質を特別製のキャスク(Cask)で運ぶ関係上、列車事故を想定してキャスクの衝撃試験を実サイズのモデルで列車に載せて試験を行っている。
「5年前までの高速度ビデオカメラは使い物にならなかった。今はかなり良くなっているが、カメラを接続するコンピュータに多大なメモリを必要とするのでまだ買い換える気にはなっていない。
もし買い換えるとするならば、現状のフィルム式高速度カメラと同程度の画質で4倍から5倍の撮影速度をもつデジタル高速度カメラが現れた時である。」
と、コメントする主技術員のMark Nissenは、今も16mm高速度フィルムカメラ(Photo Sonics社製の16-1PL、及びVisual Instruments社製の Locam)を用いて16コマ/秒から500コマ/秒で撮影し、それ以上の撮影速度を要求するケースではHycamと呼ばれる高速度フィルムカメラを使って5,000コマ/秒の撮影を行っている。
 
 
■フィルムは銀を使っている
映像記録方式の中で最も歴史があり、かつ、最も素直な記録媒体であったのが「銀」です。
銀が光に良く反応することが知られるようになって、銀板感光材が開発されたのは1830年代です。
以後、160年の間に銀塩感光材料は驚くほどの進歩を遂げました。
1980年代以降、フィルムの諸知識を知らなくてもきれいな写真が撮れるカメラが出回りました。
 
この項では、1990年代以降急速に一般化したビデオ技術との比較を念頭におきながらフィルム記録の原理を説明します。
NikonやPentax、Canonなどの35mmライカサイズカメラは、銀をフィルム上に塗布した記録媒体を使っています。
(正確には、ハロゲン化銀粒子 = silver halide particles をゼラチンに混ぜて薄く塗布した銀塩感光材の乳剤をアセテート透明フィルムに塗布した記録媒体です。)
我々はこれを、単に『フィルム』(Film)と呼んでいます。
昔は乳剤を支持するベースにガラス板が使われていたので、乾板(photographic dry plate)と呼ばれていました。(乾板の前はコロジオン湿板 = collodion wet plate) が使われました。これは、撮影の前に写真家 = 化学者が感光材を調合して塗布し、銀塩の感度が高く保たれる濡れた状態で撮影していました。)
ガラスは割れやすく使い勝手も悪いので、寸法安定性のよい樹脂フィルムの開発が望まれていました。
セルロイド(ニトロセルロース)(celluloid、nitrocellulose)は、寸法安定性が良いので一時期大いに使用されましたが、発火性が高く危険を伴うので1950年頃からトリアセテートセルロース(triacetate cellulose)を用いるようになりました。
1980年代からは、寸法安定性を求める科学フィルム(航空写真)ではポリエステルフィルム(ポリエチレンテレフタレート = polyethylene terephthalate、PETボトルの材料、マイラーフィルム = Mylar film)を用いることもあります。
しかし、この素材は強じんなためカメラムーブメント、現像機械を壊してしまうおそれがあり、アセテートフィルムから置き換わるにはいたりませんでした。
 
35mm幅フィルムでは、0.13mm〜 0.15mm厚のトリアセテートフィルムベース上に、ハロゲン化した銀粒子(大きさ0.2um 〜 6 um)をゼラチン(gelatin)に混ぜて厚さ数um 〜 20 umで塗布されています。
この塗布剤を乳剤(エマルジョン、emulsion)と呼んでいます。
ハロゲン化銀は、通常、臭素と化合し臭化銀としてエマルジョンに含まれています。
臭化銀は光エネルギーを受けるとエマルジョン中で反応し銀イオンと臭素イオンに分解されます。
従って、臭化銀はエネルギーの高い紫外線、X線によく反応します。
ただし、ゼラチンは短い紫外線を吸収するため200nm以下の撮影はできません。
ハロゲン化銀は光エネルギーが強ければ1ナノ秒程度のきわめて短い時間でも反応し、1秒程度まではリニアな特性を示します(光のエネルギー x 露光時間 = 一定)。
1秒以上の露出をする場合は、多くの場合、入射する光エネルギーが低いため、ハロゲン化銀を電離させる力が弱く、露光量はリニアではなくなります。
また、このケース(微弱光下での長時間露光)では、乳剤面中に含まれる酸素と水分子が光エネルギーを吸収してしまうため実効感度が落ちます。
これが相反則不規(そうはんそくふき)(reciprocity failure of film)と呼ばれる現象です。
 
光によって電離されたゼラチン中のハロゲン化銀は『潜像(せんぞう)』(latent image)と呼ばれています。
潜像は人間の眼では見ることのできない臭化銀内部での電離反応です。
エマルジョン中の潜像を安定した可視化像にするのが『現像』(image development)です。
現像は化学反応処理であり、電離(ionaization)した銀イオンを金属銀に還元して黒色の銀像を形成します。
現像過程では光に当たってイオン化したハロゲン化銀粒子から還元反応が始まり、徐々に光があまり当たらなかった部位にも還元反応を促すようになります。
したがって、露光済みフィルムを現像処理液に長時間浸して還元反応を促進させると、すべてのハロゲン化銀が(光が当たっている部位も当たっていない部位も)還元されて金属銀となって黒色化してしまいます。
現像における現像時間(と反応を促す現像液温度)が大切な理由がここにあります。
 
現像液はハロゲン化銀を還元する性質をもつアルカリ溶液で、メトール(Metol、硫酸パラメチルアミノフェノール塩酸基)、ハイドロキノン(hydroquinone、C6H4(OH)2)が使われます。
現像工程を終えてもエマルジョン中には光に反応できるハロゲン化銀が依然として残存するために、これを除去する必要があります。
これを定着と呼んでいます。
定着(photographic fixer)は酸性溶液の中で行われます。
ちなみに、現像はアルカリ溶液の中で行われ、現像行程から定着工程に入る際、現像のアルカリ溶液が酸性定着溶液に持ち越されるため定着液が弱まります。
これを防ぐために、酢酸(酢)溶液の停止液でフィルムを中和もしくは酸性化して定着工程に入れます。
フィルム上に定着された黒化銀(blackened silver)はきわめて安定になり、長期保存に耐えうることができます。
 
 
【水素増感法】(Photographic hypersensitization)
水素増感を施したフィルムは天体観測用のフィルムとしてアマチュア天文家の間で使われてきました。
市販フィルムを水素雰囲気中にさらしておくと実効感度が10倍程度向上します。
その原理はフィルム中に残存する酸素分子と水分子が光エネルギーを吸収してしまうため、感度に有害なこれらの分子を水素と置換させてしまうものです。
こうすることにより、ハロゲン銀が効率よく光と反応できるようになります。
水素増感法を行う装置には、フィルムを入れる密閉容器(真空、水素フォーミングガスを入れるコック付、デシケータでも流用可能)、真空ポンプ、50℃を保つヒータ、水素8%、窒素92%のフォーミングガスが必要です。
市販のフィルムを密閉容器に入れ、水分と酸素を除くため真空引きをします。
半日程度真空引きし、水素フォーミングガスを入れて酸素と水分子の抜けた乳剤面の空乏を水素で置換します。
置換作業は温度が高い方が効率がいいので密閉容器を50℃近辺にして行います。
 
水素増感法を紹介した記事が「朝日新聞」(1981年3月14日)にありましたのでこれを紹介しておきます。
 
●美しい星空 はっきり写る - 普及し始めた水素増感法同じ露光でも10倍の差も - 
アマチュア天文ファンは、経験を積んでくると天体の魅力を写真に記録したくなるようだ。
そんな時、暗い天体を写すのにフィルムの感度が足りないことがあるが、最近、水素ガスを使って前処理するだけで、2倍から条件によっては10倍を超す感度にフィルムを増感できる技法が開発された。
アメリカでは水素を安全に使うためのキットもすでに売り出されており、日本の天文ファンの中にも手作りの装置で増感フィルムを使い始めた人もいる。
水素増感法は、世界的なフィルムメーカのコダック社のT.A.バブコック氏とT.H.ジェームズ氏の二人が1975年に見つけ、最近になって普及した。
感度が増すのは、フィルムの感光乳剤の中にある直径0.1〜1ミクロンの臭化銀結晶に水素が作用し、臭素とイオンが結合している銀を還元、2原子の単体の銀を作るからだ。
一般にフィルムが感光すると、臭化銀の中で電子とプラスの電気(正孔)が出来、電子を受け取った銀イオンが単体のイオンになる。
それが、現像の際、触媒の働きをして黒い像を作るのだが、水素で還元された単体の銀が最初からあると、正孔を消滅させる効率が良くなるためだ。
天文撮影で盛んに行われた水素増感法も、1990年代終わり頃より冷却CCDの登場でその座を奪われて、最近(1990年代)ではこうした処理を行わなくなりました。
天文撮影では露光時間を10秒から1分程度にする撮影が多いので、長時間露光が得意なcooled CCDカメラの方が使い勝手が良いと言えます。
高速度カメラでは10usとか1us(百万分の1秒)の露出が必要な場合が多いので、今述べたフィルムを増感する方法は2000年代までは有効な手法でした。
   
 
■カラーフィルム (2002.05.04)(2020.5.17追記)
上の説明で白黒フィルムについて述べました。
カラーフィルムは白黒フィルム同様銀塩を使っています。
ただ白黒フィルムと違うのはカラー情報を得るために乳剤面が青、緑、赤の三層に別れていることです。
青、緑、赤の各層にはその領域に感ずる増感色素(sensitizing dye) = カプラー(coupler)が含まれていてます。これとハロゲン化銀(silver halide、臭化銀にヨウ化銀が溶け込んだヨウ化臭化銀という固溶体)が交ざって塗布されています。
その光の吸収によってハロゲン化粒子の表面に潜像中心ができます。
その潜像した粒子を現像主薬で現像して還元し銀粒子にさせます。
この還元反応によって現像主薬が酸化されて酸化生成物ができ、この酸化物とカプラー(coupler)が反応して発色色素が作られます。
そののち(ネガフィルムでは)漂白という過程を経て、定着でフィルム中の銀がすべて洗い流され発色したカプラーだけが残ります。
カプラー(coupler)とは、フェノール(シアン)、アシルアセトアニリド(イエロー)、1-フェニル-5-ピラゾロン(マゼンタ)に代表される化学薬品で発色の元になるものです。
カプラーの概念はコダックで開発されました。
カラーフィルムは今でこそ一般的になっていますがとても複雑な仕組みになっていることがわかります。
カラー情報を得るために三原色の原理を応用した3層の乳剤を塗布する技術や、三原色に感光する増感剤の開発、発色を受け持つカプラーの開発など興味ある技術が次々と生み出されました。

 

 
【3原色感度層】 (2005.11.20) (2020.05.17追記)
カラー写真の考え方は、1891年、ユダヤ人物理学者リップマン(Jonas Ferdinand Gabriel Lippmann: 1845 - 1921)が始めたと言われています。
リップマン法は光の干渉を使って光の周波数を記録する方式でした。
現在使われている光の三原色による方法ではありません。
この手法が評価されて、1908年にノーベル物理学賞を受賞しています。
リップマンの方法は像が鮮明でないことや高価なことから一般的にはなりませんでした。
 
実用的な3原色に基づくカラー写真は1855年のマクスウェル(James Clerk Maxwell、1831-1879)がヤング(T.Young)の3原色原理に基づいて提唱したのが始まりとされています。
マクスウェルは、1861年、王立研究所で3原色に関する興味ある公開実験をしています。
彼は色の付いたリボンの写真を三原色のフィルタ(青、緑、赤)を使って、それぞれ白黒の写真に撮影し直して3枚の写真(ポジ)を作りました。
その写真を撮影の時に使った青、緑、赤のフィルタに再度かけてランタン光で投影しました。
その3枚の写真をぴったり重ね合わせたところ白黒写真だった画像は見事なカラー写真になったのです。
マクスウェルは人の目が3原色だけでカラー情報を感じることを実験で示したのです。
人の視細胞には3原色を検知する色の受容体があるのです。
これは、イギリスのトーマス・ヤングも医学の立場から提唱していたことでした。
 
実用的なカラーフィルムが作られるのは、1904年、映画の父と言われたフランス人発明家リュミエール兄弟(A.&L. Lumiere)がモザイクスクリーンを使ったオートクローム乾板(Autochrome Lumière)を発表して商品化したことから始まります。
1928年には加色法に属するレンチキュラー法の16mmコダカラーが商品化されます。
1935年、コダックのマンネス(L.D. Mannes)とゴドウスキー(L. Godowsky)がフィルムに三原色の三層乳剤を塗布した三層乳剤外型反転発色現像法と呼ばれる減色法によるモノパック法を発明します。
この方式で作られたフィルムがコダクローム(Kodachrome)という商品名で販売され、三原色を一つのフィルムに多層塗布するカラーフィルムが一般的になりました。
 
現在デジタルカメラの単板CCDカメラの前面に貼り付けられている3原色モザイクフィルタは、ベイヤー(Bayer)フォーマットと呼ばれていますが、このフィルタは、コダックのBayer博士がカラーフィルムの研究中に発明したもので、CCDカメラ用として開発し特許を取ったものではありませんでした。
カラーフィルムも、ネガフィルム、リバーサルフィルム、外型カプラー方式、内型カプラー方式、インスタントフィルム方式が開発されて製品化されています。
 
【高感度層、中感度層、低感度層】
上図のカラーネガティブフィルム断面図の模式図を見ると、カラーフィルムは複雑な多層膜塗布によって作られていることがわかります(多層膜の仕方はメーカによってまちまちですが、代表的な例を上図で示しました)。
カラーフィルムには青、緑、赤の3つの感度層からなるコーティングが施されていて、各感度層はさらに3つの乳剤層に別れています。
3つの乳剤層の一番上は高感度層で、次が中感度層(画像制御層とも呼ばれています)、一番下が低感度層です。
高感度層はハロゲン化銀粒子が大きく、粒状は荒いけれど光を良く受ける働きがあります。
低感度層は微粒化ハロゲン化銀が塗布されていて、光が十分にあればキメの細かい画像を得ることができます。
中間に配置された画像制御層は巧みな働きをします。
この層が感光して現像されるとこの層に含まれている現像抑制剤が遊離して、上層の高感度の素粒子の乳剤の現像を抑制して微粒子に仕上げます。
暗部や露出不足の時は中間感度層がほとんど感光しないため、現像抑制剤が放出されないで上層の高感度乳剤がフルに感度を発揮します。
この場合は粒状性が低下する結果となります。
 
【黄色フィルタ層】
カラーフィルムでは、青色感度層のすぐ下にイエローフィルタ層が配置されています。
この理由は、ハロゲン化銀はもともと青に感度を持っていて赤色領域は感度が低いために、全色に感度を持たせるためにハロゲン化銀に分光増感色素(シニアン色素、メロシニアン色素)を混ぜて長波長にまで感度を持たせました。
従って、分光色素を纏ったハロゲン化銀は長波長側にも感度を持つようになります。
しかし、依然として青色はハロゲン化銀そのものが感じてしまうので、カラーフィルムでは光が最初にあたる上面に青色感度層を塗布し、その下部には青色を吸収して緑と赤を透過するイエローフィルタを配置してあります。
このイエローフィルタ層は現像過程で取り除かれ透明になります。
 
【カラードカプラー】
カラーネガティブフィルムには現像処理した際に全体がオレンジを帯びた仕上がりになります。
これはマゼンタ発色カプラー(緑感度層)が黄色でシアン発色カプラー(赤色感度層)が淡紅色をしているため、現像処理して未発色カプラーが残留してオレンジがかった色になります。
予め色を付けておくカプラーのことをカラードカプラー(colored coupler)と呼んでいます。
緑感度層と赤色感度層になぜカラードカプラーを使用するかというと、両者のハロゲン化銀は青色にも感度を持っており、両者の感度層では両者の光だけでなく青も若干吸収します。
これを放置して現像処理をすると青色が強くなるので予め有色カプラーで青色成分を補正して色再現を鮮やかにしているのです。
     
 
■フィルム乳剤の歴史 (2002.02.03)(2006.02.06) (2020.5.15追記)
フィルム感光材料はネガティブ フィルムが中心でした。
銀塩感光材は陽画からスタートしましたが、プリントを行う必要からネガフィルムの需要が増えてそれが一般的になりました。
我々の小学校時代に理科の時間に青写真の実験を行ったことがあります。
フィルムの感光原理はこれと似ています。
青写真では感光紙の上に植物の葉や切り紙を置いて、その上にガラスをのせて30分ほど太陽下にさらします。
その後、感光紙を現像液につけると光が当たった所が反転して青色に染まります。
その原理がフィルム感光材にも当てはまります。
光が当たったところが黒くなります。
普通の感覚では光が当たると明るくなるので白くなり、フィルムでは透明に抜けなければなりませんが、ネガティブフィルムの場合は銀反応による現像工程を経て黒化銀となります。
つまり、ネガティブフィルムでは濃淡像が反対になります。
そのフィルムをさらに印画紙に焼き付けて、再度反転させて正しい陰画像を得ます。
これが一般的なフィルム、つまりフィルム現像とプリント作業です。
我々がお店でフィルムを買うフィルムは、ほとんどの場合がネガティブフィルムであり、現像と一緒にプリントを起こしてもらいます。
カメラフィルムに使われている銀塩感光材は、青写真と違って光に対して感度が良く、以下の特徴を持っています。  
 
・ 短時間露光ができる。
・ 銀塩の粒状性、感光特性(濃度)が良いので画質の良い陰影が得られる。
・ 得られた反転画像(ネガ画像)は、透明支持体に定着できるので印画紙にプリントする際に便利
・ 銀塩の記録像は、記録性が良い。 
 
 
 
【銀(silver)】
光を定着させるために(感光材として)銀が使われるようになったのは興味深いところです。
銀は昔から高価でした。
中世ヨーロッパでは、金よりも銀の方が価値のある時代があったと言われています。
もちろん日本も明治になって開国を迎えるまで銀と金との相対価値は銀の方が高かったのです。
貨幣が「金」を根本として一元化した金本位制をとって以来「金」が最高の価値になっていますが、昔は、金と銀のそれぞれ独立した複本位制でした。
 
イギリスでは、貨幣の単位に「ポンド」(pound)という単位が使われ、重さなのか貨幣なのかわからない単位が使われています。
その「ポンド」こそ、銀1ポンドの重さの価値だったのです。
イギリスでは、その銀1ポンドを240等分にわけ240枚の銀貨を作りました。
その一枚が1ペニー銀貨となりました。 (ペニー銀貨12枚が集まってシリングという銀貨も作られ、20シリングで1ポンドの時代がありました。 ちなみに1ポンド = 4クラウン、1クラウン = 5シリング = 60ペンスという貨幣単位もできたり、ハーフクラウンという貨幣もでき、1ギニー = 21ペンスという単位も使われていました。歴史のなせる技でしょうか。)
その後、イギリスは1813年に金本位制をとるようになりましたが「ポンド」という名前だけは残りました。
 
いずれにしても銀は今も昔も貴金属だったのです。
 
銀は、青白い美しい光沢をもった金属でその光沢の美しさから食器や装飾具に多用されました。
ただ、金と違って銀は酸化しやすく酸化すると黒い酸化銀を形成します(正確にはオゾンと反応して酸化銀となるそうです。
水と酸素に対しては安定しているそうです)。 酸化した銀は磨けばまたもとの青白い美しい光沢を得ることができます。
銀は金の次に延性に富み、電気伝導率は金属中最大です。
 
こうした特徴に加えて、銀は光によく反応します。
その光に対する反応を見抜いた、いにしえの人達が陰影像を残す材料として銀塩材料を発展させました。
現在(1990年代)では、銀の消費量の約半分が写真工業用として使われているそうです。
銀は極めて安定した金属ですが、光に反応し、その上ハロゲンにはたやすく侵される性質をもっています。
この二つの組み合わせによって、銀を光に反応させてハロゲンと銀をくっつけたり離したりし、光に反応した銀だけを遊離して定着させる写真技術を作り上げました。
 
【カメラ・オブスキュラ】
光の陰影を写し出して記録することが始められたのは、1500年頃のカメラ・オブスキュラ(camera obscura、ラテン語でdark chamber、つまり暗箱という意味)からと言われています。
このカメラは、暗い部屋の壁に小さな穴をあけ、外からその穴を通して入り込む光によって反対側の壁に外の風景を写し出し、写し出された像を中に入った人がナゾって風景を模写したと言います。
これがカメラの原型となり、その後ピンホールがレンズに代わり、ヒトが描く模写の代わりに感光物質で陰影を露光する技術が発達し、写真が出来上がりました。
 
【感光材】
光に反応する物質を発見したのは、1727年、ドイツのヨハン・シュルツ(J.H. Schulze、1687-1744)と言われています。
彼は光によって硝酸銀(AgNO3)が黒化することを発見しました。
彼は、暗いところで硝酸銀溶液と白亜(石灰岩)の粉を混ぜてガラスびんに入れ、ビンの回りを文字を切り抜いた黒い紙で被い日の当たるところに置いたところ、日のあたった所だけ黒くなり、残りの部分は白いままであったのを見つけたのです。
 
この材料を使って英国人のトーマス・ウェッジウッド(T. Wedgewood、1771-1805)がカメラ・オブスキュラの焦点面にこの材料を使いました。
しかし、これはうまくいきませんでした。
彼は、そこで硝酸銀や塩化銀を塗った紙(感光紙)を使って絵を描いたガラスをおいて、数分間日光に当てて絵を写し取ることに成功しました。
このときの感光紙に写った陰影は絵とは逆の陰画(ネガ)でした。
  
【ニエプスによるヘリオグラフィ】
1822年、フランスの発明家ニエプス(Joseph Nicephore Niepce: 1765 - 1833)は、アスファルトを石油(テレピン油)に溶解して、スズ板、銅板、石版上に塗布したものをカメラ・オブスキュラに入れて結像面の像を写し取ることに成功しました。
これは、ウェッジウッド(T. Wedgewood、1771-1805)の陰画とは逆の陽画(ポジ)の撮影法でした。
彼はこれをヘリオグラフィー(heliography)と呼びました。
感光材にアスファルトを使ったというのも奇妙な取り合わせです。
アスファルトには、光を当てると固くなるという性質があります。
その性質を利用して、写真術が開発される以前から印刷用の原板をこの方法で作っていました。
グラビア印刷、網目凹版印刷の原型です。 これを写真術に応用したのです。
 
彼は、銀メッキした金属板にアスファルト溶液を塗布し、レンズを使って物体像を何時間もかけて感光板に結ばせました。
物体の白い部分はたくさんの光を反射しレンズを通した像にもたくさん光があつまるのでアスファルトは固くなります。
暗い物体は、光をたくさん反射しないものなので、暗い物体像はたくさんの光で作られないのでアスファルトは柔らかいままです。
感光を終えたアスファルト感光板を油で洗い流した後、ヨード蒸気にさらしました。
そうすることにより、柔らかいアスファルト(暗い像のある部位)は流れ落ち、明るい物体像のアスファルト部は固いので流れ落ちにくくそのまま残ります。
光が当たらなかった部分は銀が露出し、ここにヨードが反応し淡黄色のヨウ化銀が生じます。
光が当たって硬化したまま残ったアスファルトは、その後アルコールで溶かして銀面を露出させました。
こうして得られた画像は、濃淡が実際の景色と同じ陽画になったと言われています。
しかしながら、この感光材料は感度が悪く、撮影に10時間前後の露光が必要だったそうです。
 
【ダゲレオタイプ写真】
1839年8月19日、パリの科学アカデミーで、ルイ・ダゲール(Louis-Jacques-Mande Daguerre、1787-1851)がダゲレオタイプの写真(Daguerreotype、銀板写真)を発表します。
同国人ニエプスに遅れること17年のことです。 ニエプスとダゲレオは、当初一緒に写真の研究を行っています。
この研究を発展させて、さらに感度が良くて画質の良い銀塩写真法を発明しました。
ダゲレオタイプは、銀板をよく磨いて、ヨード(沃度)蒸気を作用させて銀板表面にヨウ化銀(AgI)を生成させ、をカメラ・オブスキュラに入れて撮影しました。
撮影時間は、ニエプスの10時間から20-30分と1/20と大いに短縮され、画質も驚くほど鮮明でした。
撮影した銀板は水銀蒸気で現像され、食塩(後にハイポ = チオ硫酸ナトリウム)で定着されました。
 
ここに銀塩写真撮影・現像手法の原型が出来上がり、今日の写真の礎となりました。
ダゲールは、もともとは舞台の風景画家で、風景画に様々な色の照明を当てて臨場感を出す「ジオラマ」の発明者でもありました。
 
ダゲールが現代写真術の祖であるとするのに依存がない面白いエピソードがあります。
ダゲールが活躍した時代(1800年代前半)は、フランスで科学技術がさかんになり出した頃で、数学や光学も発達していました。
科学アカデミーの設立が科学技術の促進剤になっていたのは否めません。
ダゲールが写真術を発明した時、その発明をどのように活かそうかと天文学者アラゴ(Dominique Francois Jean Arago:1786-1853)に相談しました。 アラゴは、当時有名な学者で、フレネルなどりっぱな学者を発掘した人でも知られています。 アラゴは、彼の発明を特許として彼の所有にするのではなく、誰でも自由に写真作れるようにすべきだと提案しました。 そのかわりアラゴは、ダゲールやニエプスの子孫がフランス政府から年金をもらえるように取りはからったのです。
こうした経緯を経て、1839年8月19日、フランス学士院の科学および美術アカデミーの合同会議の席上でダゲールの発明が公表されたのです。
このエピソードは、その後の写真発展にはなくてはならぬ出来事でした。
 
ただ、この特許はイギリスでは無償とはならず、使用のための特許料を課したそうです。
理由は、以下に述べるタルボットの発明したカロタイプの感光材と技術競争に発展していたからです。
 
 
【カロタイプ写真、Calotype】
ダゲレオが銀板写真を発明した2年後の1841年、イギリスの数学者であり発明家であったタルボット(William Henry Fox Talbot: 1800 -1877)が、カロタイプ(Calotype)の銀塩感光材料を発明します。
カロというのはギリシャ語のKalos = 美しい、からきています。
カロタイプは、原画(ネガ)を作ってそれから多数の陽画プリントをとることができるもので、我々が長年親しんで来たネガフィルムの原形でした。
タルボットの発案したプリントできる技術は継承され、カロタイプから3世代ほど下ったジョージ・イーストマン(Kodak社)のロールフィルムで大きな普及をみます。
 
タルボットの発明が現在の写真の始まりだという説もあります。
ダゲレオタイプは、プリントができませんでした。
実際のところ、ダゲレオタイプのカメラは、タルボットの写真手法ができてのち、廃れてしまいます。
 
カロタイプ(Calotype、タルボタイプ = Talbotype)は、繊維質の紙に硝酸銀の水溶液を塗布して乾燥させ、その上にヨウ化カリウムの水溶液をしみ込ませてヨウ化銀を生成させたのち再度乾燥させ、さらに硝酸銀、酢酸、没食子酸混合水溶液に浸してから再び乾燥させたものです。
これで作った感光紙(6cm x 6cm)をカメラオブスキュラに入れて使用しました。
撮影後は、硝酸銀、酢酸、没食子酸混合水溶液で現像して臭化カリウム液で定着を行いました。
カロタイプは白黒反転したネガ画像なので、これをもう一度カロタイプ紙にプリントしてポジ写真を得ました。
ネガ紙をポジ紙に密着させて感光させていたのでネガ紙の紙繊維が映り込みダゲレオタイプのようなシャープさにはかけました。
 
タルボットは、カロタイプの写真感光材料を発明した3年後の1844年に、世界ではじめての写真入り書物「自然の鉛筆」(Pencil of Nature)を出版しました。 彼の写真は、ネガからたくさんの陽画がプリントできたので出版物に適していました。
写真出版書物の先駆けとなったものです。
 
写真術は、フランスとイギリスで深く研究されていたようです。
写真術は、1839年のフランスのダゲレオが最初だとされていますが、タルボットはそれよりも早く写真の実験を始めていて、1833年、彼が33才の時にイタリアに新婚旅行に出かけた際に使ったカメラオブスキュラの風景保存から写真術を思いついたそうです。
光で紙に直接風景を焼き付ける装置(写真)の考案に取り組みます。
1935年、カロタイプの写真を考案します。
彼は、しかしこれを中断して彼の本職の一つである数学研究に戻りました。
写真術の研究を再び始めるのは、ダゲレオが写真術を完成させたという報告を聞いた直後(1939年)で、王立協会に対して4年前に発明した画像数枚を公開しました。
また、王立協会のハーシェル(John Frederick William Herchel、1792 - 1871)ら多くの科学者からの協力を得て研究を進め、1840年までに技術を完成させました。
タルボットは、当時、写真という言葉にPhotographを使わず Photogenic drawing(フォトジェニック・ドローウィング)を使っていました。
光を使って風景を描くという意識が強くあったものと思われます。
 
1840年代以降、大いに写真業が勃興します。
フランスはもちろんのこと、英国にあってもたくさんの写真が職業として従事されるようになりました。
高田俊二氏の「写真産業の技術革新史 - その1」(日本写真学会誌2014年77巻2号: 76 - 82)には、写真感光材の歴史がビジネスの側面から詳しく、また、興味深く執筆されています。
彼の解説によると、1841年当時、ロンドンに写真家の職業欄はなく、1851年に51人、1861年に2879人と急増したとあります。
1851年は、コロジオン湿式感光材ができた年です。
コロジオン湿式写真は、使い勝手は悪かったものの感度がよかったようです。
コロジオンを発明したアーチャーは特許を申請しなかったので、自由に使うことができ写真家を増やすことになったのかも知れません。
 
 
 
【コロジオン湿板写真】(Collodion process)
ダゲレオの写真術が発表された12年後の1851年、イギリスの彫刻家スコット・アーチャー(Frederick Scott Archer: 1813 - 1857)によって、コロジオン湿板法(Collodion Process)が発表されました。
(同時代にフランス人のGustave Le Grayも同様の方式をあみ出したとも言われています。)
この写真は、ダゲレオタイプより高感度でした。(露光時間は5秒〜15秒、ダゲレオタイプは30分、カロタイプは1分。)
また、コロジオン湿板写真は、10年ほど前に発明されたタルボットのカロタイプに比べて支持板にガラスを用いることができたため、より鮮明な像を作ることができました。
 
コロジオン湿板は、カロタイプと同じくネガ撮影であったので原版から何枚もプリントができ、画質はカロタイプよりも良質で安価でした。(ダゲレオタイプは銀版を使用)。
また、アーチャーは彼の発明に対して特許を申請しなかったため、短期間でダゲレオタイプとカロタイプを駆逐していったと言われています。
カロタイプを発明したタルボットは、1840年代、自らの特許に対してかなりの高額な使用料を課していました。
それは、フランスのダゲレオに勝つために多額の開発費が必要だったからだと言われています。
 
江戸幕末期の安政年間(1854年 - 1860年)に日本に輸入された写真機は、コロジオン湿式タイプでした。
 
コロジオン湿板法は、ヨウ化カリウムをコロジオンに溶解してガラス板に塗布し、これを乾燥した後に硝酸銀水溶液につけて濡れたままで撮影し現像する方法です。
濡れている間に露光を行わないと、感度が落ちて撮影ができなくなります。
感度は良いかも知れませんが、濡れたままの処理であるので取扱は不便でした。
コロジオンは乾いてしまうと硬い膜を作ってしまうので、乾燥してまう20分の間に撮影を終えなければなりません。
そして乾かない前に現像して定着させなければなりません。
撮影した後、即座に現像処理を行わなければなりませんでした。
 
コロジオン(collodion)は、半透膜の一種で強力な薄膜です。
硝酸セルロース(ニトロセルロース、nitrodellulose)をエタノール - エーテル混合溶液中で溶かしたもので、溶剤が蒸発すると薄い被膜を作ります。
ニトロセルロースは、綿花薬とも呼ばれ着火すると激しく燃えます。
火薬の原料ともなり、またシートフィルム(セルロイド)の原材料ともなったものです。
この被膜がコロジオンと呼ばれるもので、これには半透膜の性質があるためコロイドの研究に使われました。 コロジオンは、粘りけのある液体でこれを傷口に塗ると耐水性の被膜ができ、爪に塗るマニュキアの材料としても使われました。
写真家は粘りけのある感光板が乾かないうちに撮影するため、木製カメラ内や現像暗室は強いアルコールで充満していたことだろうと想像します。
 
 
コロイド
コロイドは、牛乳や、墨汁、エアロゾールなどの比較的大きな粒子(媒質)が媒体中で安易に沈殿しない状態のことを言います
学術的には、イオン化したものより大きな微粒子(10-7〜10-9m)が物質中に分散したとき、溶液と同じように凝集、沈殿することなく分散状態を保つ状態をコロイド状態と言い、これらを総称してコロイドと言います。
コロイドの一般的な特性としては、
 
   1) ブラウン運動をする。
   2) 濾紙は通るが半透膜は通らない。
   3) チンダル現象を示す。
 
という性質があります。
 
 
コロジオン湿式法は、使い勝手が悪いというので、1864年サイスとボルトンによって乾燥コロジオン(コロジオン + 臭化銀)が考案されてネガや印画紙の乾板製造に使われました。
しかし湿式に比べて感度が著しく低かったので普及をみることはありませんでした。
湿式に変わる乾式銀塩感光材(ハロゲン化銀ゼラチン乳剤)がアーチャーの発明後21年で現れました。
 
 
 
【ハロゲン化銀ゼラチン乳剤】
1871年、イギリスの医師で写真家のマドックス(Richard Leach Maddox: 1816 - 1902)が発明したこの乳剤が、以後の銀塩感光材の主流となりました。
写真感光材は、湿式感光板(wet plate)から乾式感光板(dry plate)となりました。
この発明は、Maddoxが55才の時の発明ですから、かなり晩年の発明と言えます。
Maddoxは、当時、顕微鏡医師として名を知られていました。
顕微鏡撮影を行っていく中で、コロジオン湿式感光材では使い勝手が悪く、そしてまた顕微鏡を使って長年写真をとってきた彼は写真に用いる有機材料蒸気で健康を害していたため、より安全で簡便な乾式感光材の出現を望んでいました。
 
彼の発明を発表は静かなもので、機関雑誌「British journal of Photography」にゼラチンを使った臭化銀乳剤の作成レシピを載せたのが最初でした。
その原稿は未完成であり、友人の編集長の突然の要請で出稿してしまったことを残念に思い、その特許の申請もしなかったそうです。
彼の発明したゼラチン乳剤は感度が低くてコロジオン湿式感光板に置き換えるほどには至らず、顕微鏡撮影のプレート複製に使っていました。
臭化銀を固定するのにゼラチン(Gelatin)を用いたのは、いろいろな「つなぎ」を試した結果もっとも安定していてそして銀の感光作用を阻害しないものだったから、と述べています。
彼が試した「つなぎ」材料は、卵白、植物性粘着剤質(地衣 = コケ、アマニ、カリン)、米、タピオカ、サゴなどでした。
最後にたどり着いたのが、家庭食材の「ネルソンのゼラチン粉末 = Nelson's Gelatine Granuals」でした。
 
ゼラチン乳剤は、銀の微粒子をハロゲンと化合させて活性化させて、これを極めて安定でかつ溶解も容易なゼラチンに混ぜたものです。
この乳剤を支持板に塗布したものがゼラチン乳剤乾板です。
取り扱いが良かったことから写真感光材料の主流となりました。
ただし、ゼラチン乳剤の初期の感度は、コロジオン湿板のほうがよかったようです。
ハロゲン化銀ゼラチン乳剤が発明された当初は、カメラマンが自ら調合して使用していました。
 
マドックスの発表から2年を経た1873年、バージェス(John Burgess)が臭化銀ゼラチン乾板を商品として販売しました。
この時までには、感度が湿板に追いついていたとされています。
しかし、彼の商品は品質が不揃いで人気がでず、商売として成功しませんでした。
これが、1878年イギリスのリバプール乾板会社(Liverpool Dry Plate Company)のベネット乾板(Bennett Dry Plate)によって成功し発展を見ます。
臭化銀ゼラチン乳剤は、その後改良が加えられて高感度化されました。
マドックスが開発した当時の感度がASA/ISO 0.01程度だったのを、10年ほどでASA/ISO100程度まで向上させたようです。
イギリスにおける写真乾板製造業者も急速に増えていき、Wratten & Wainwright社(ロンドン、ラッテンフィルターで名前が残る。後にEastman Kodak社に吸収)、Britannia Works社(イルフォード、エセックス州)(イルフォードの乾板で有名、日本での国産化の品質目標)など14社に上ったと言われています。
 
1873年のドイツの写真家・写真化学者のフォーゲル(Hermann Wilhelm Vogel: 1834 - 1898)による分光増感色素の発見によって、それまで青色領域にしか感度がなかった銀塩乾板が緑色領域に感度を持つオルソ乾板になり、さらに赤色に感度を持つパンクロ乾板に成長していきました。
 
 
フィルム
ネガ/ポジ
色温度 
特徴
代表的フィルム 
白黒フィルム
ネガティブ
フィルム
 
最も一般的なフィルム。 反転像のためプリント必要。
濃度階調はリバーサルフィルムより巾広い。
●フジフィルム ネオパンSS
●コダックT-MAX T400CN
リバーサル
フィルム
 
スライド用。
あまり使われない。
 
カラーフィルム
ネガティブ
フィルム
デーライト
最も一般的なフィルム。 反転像のためプリント必要。
濃度階調はリバーサルフィルムより巾広い。
●写ルンです(富士写真) ●フジカラーSuperia 100 (デーライト) ●コダック Gold 100
(デーライトフィルム)
タングステン
リバーサル
フィルム
デーライト
スライド映写用。広告用。 色再現性が高い。 濃度階調はネガティブフィルムより 狭いので、露出設定がクリティカル。
プロ写真家が好んで使用。
●フジクロームProvia 100F (デーライト) ●フジクロームプロフェッショナル 64T タイプII(タングステン) ●コダックエクタクローム ダイナ
EX100(デーライトフィルム)
タングステン
インスタント
フィルム
ネガティブ
フィルム
  

需要がなく販売中止

 
リバーサル
フィルム
 
一般的なインスタントフィルム。
撮影したその場で写真が見られる。
●フジインスタントフィルム  FP-3000B(白黒剥離タイプ) ●フジフォトラマ FI-800GT ●フジフィルムInstax(チェキ) ●ポラロイド779 ●ポラロイドSX-70TZ (米国ポラロイド社は2001年10月
 会社更生法を適用、受理)
代表的フィルムは、一般向け35mmフィルム(135タイプ)をリストアップ  (2001年時点での資料)
 
 
●ゼラチン(Gelatin) (2020.05.16追記)
エマルジョン(乳剤)に使われる材料にゼラチンがあります。
いわゆる「つなぎ」材料です。
銀塩(おもに臭化銀)をゼラチンに混ぜてセルロースのフィルムに塗布したのがフィルムです。
銀塩材料に、なぜゼラチンが使われそれが現在まで生き残ってきたのでしょうか?
写真は前にも述べた如く、初期(ダゲレオタイプ)のものは銀の板にヨウ素を使ったハロゲン蒸気を吹きつけ、銀を活性化(ハロゲン化)させて光と反応させていました。
この手法は、撮影の直前に処方する必要があり、事前に作ったものでは感度がなくなり撮影はできなくなります。
そのハロゲン銀をコロジオンにして、撮影が終わるまで湿った状態にした(膜を作らないようにした)コロジオン湿式法が編み出され、最終的にゼラチンの中に銀塩粒子を混ぜた銀塩感光材ができあがり、これが現在まで生き延びました。
湿式はいかにも使い勝手が悪い感じがします。
ゼラチン銀塩剤は、使い勝手が良くて感度、解像力、階調が優れたために生き残ったのだと想像します。
乳剤としてゼラチンが使われるまでには、今述べたコロジオンや、卵白が使われました。
ゼラチンは、動物の骨や皮などから得られるコラーゲンを水とともに煮沸し、加水分解して生成するタンパク質の一種です。
生成したゼラチンはゼリー状になっていますが、乾燥して粉末として保存することができ、必要に応じて水で戻してゼリー状にすることができます。
ゼラチンには以下の性質があります。  
 
1) 液体状態でも浸透膜を通過することないコロイドである。
2) 適当な支持体上にセットされたとき、ゼラチン層は無色で曲げることができる。
3) 写真処理液やハロゲン化銀結晶とは反応しない。
4) 冷水溶液に浸しても溶けず、ゼラチン自体の重さの10倍までの水分を吸収する。
 
ゼラチンのこのような優れた特性は、写真感光材の「つなぎ」として最適なものであり、ハロゲン銀の乳剤を作るのに最も適していたというわけです。
ゼラチンは、水分を吸収して柔らかくなり、膨張してもハロゲン化物質結晶が流出することもありません。
また、それが乾燥しても、元の大きさや形に縮んですべての結晶やそれに対応する銀、色素も元の位置に戻るため、画像が歪められることがありません。
さらに、ゼラチン乳剤は繰り返し湿らせたり乾燥したりしても、そこに形成された画像に影響を与えることはなく、乳剤表面をきめ細かくすることができるのです。
これが時代を超えてフィルム乳剤の「つなぎ」として使われてきた理由です。
 
【ゼラチンと感度】
ゼラチンは、長く続く銀塩感光材の「つなぎ」として2000年にいたるまで140年もの長きにわたり使われてきました。
ゼラチン乳剤による感光材ができた当初の感度はあまりよいものではなく、それまで使われて来たコロジオン湿式感光材の方が1桁以上も良好でした。
銀塩感光材の最初のダゲレオタイプのものは、1万ルクス程度の屋外の明るさにおいて30分ほどの露光時間が必要で、これがタルボットのカロタイプになると1分に短縮され、コロジオン湿式感光材になるとさらにその半分の30秒ほどになっていました。
ゼラチン乾板は、なるほど使い勝手がよいものでしたが、感度については初期のものはそれほど芳しいものではなく、1878年英国のベネットが開発したベネット乾板でようやく感度がASA/ISO 100相当になったと言われています。
高感度のゼラチン乳剤が開発されるにつれて、ゼラチン乳剤感光材による写真術が急速に普及していきました。
乳剤の高感度化は、ゼラチン製法時の加熱方法(熱熟成法 = オストワルド熟成)によるものでした。
この方法は、ゼラチン乳剤を乾かす過程で粘い糊になるまで加熱させる処理であり、ゼラチン内に散在している銀粒子を大きな塊にする効果をもたらしていたようです。
高感度化は、温度を32度程度にして1週間程度の熟成を施すとさらに効果が生まれました。
しかし、この方法では時としてゼラチン乳剤が腐敗してしまうという問題が生じたため、アンモニア水を使った熟成で問題を解決していったようです。
こうしたゼラチン感光材の高感度化は、初期の頃は比較的大らかにその手法が公開されていたものの、同業他社がたくさん現れて競走が生じるようになると非公開として企業秘密となって行きました。
アマチュアの米国ロチェスターに住むアマチュアのジョージ・イーストマンが、この業界に入り始めた時(1870年代)は写真技術は大らかで、英国の情報雑誌に新しい情報がオープンにされていたので比較的容易に英国の写真術を得ることができたようです。
それだけビジネスとしての魅力もまだ低く、趣味的な位置にあったと思われます。
ゼラチン乳剤の感度がASA/ISO 100程度になった時(1882年、Wratten & Wainwright社)が、銀塩感光材としての地位を確立した時でした。
その年の湿板と乾板の使われ方の比は、湿板1に対して乾板は140ほどであったと言われています。
1880年代からは、ゼラチン乳剤使用が主流となって行きました。
ゼラチン感光材は、120年後の2004年には富士フイルムからASA/ISO 1600相当の感度を持つNATURA1600ものが市販化されています。(ただし、2018年3月に製造が終了しました)。
 
 
  
 
●ハロゲン化銀(Silver Halide)
ハロゲン化銀は、写真感光物質の主流です。 現在の世の中に出回っているフィルムにはすべてこのハロゲン化銀が入っています。
白黒フィルムも、カラーネガフィルムも、カラーリバーサルフィルムも、すべてのフィルム感光材にはこの金属塩粒子が入っています。
ハロゲン化銀は、銀と塩素、ヨウ素、臭素などハロゲンから構成される塩です。
しかし、ハロゲン化銀は、銀とハロゲンの直接結合によって形成することはできないので、硝酸に純銀を溶かして作った硝酸銀(AgNO3)溶液と、臭化カリウム(KBr)や塩化ナトリウム(NaCl)のようなハロゲン化物の溶液を混合して作られます。
この化学式は以下の通りです。  
 
AgNO3 + KBr → AgBr↓ + KNO3
 
この式で示された臭化銀沈殿物(AgBr)は微粒子であり、この粒子の大きさによって感度や解像度が決定されます。
ハロゲン化銀で注意すべきことは、銀は青から赤まで人間の目と同じような波長感度を持っていないことです。
ハロゲン化銀そのものは、紫外線から青色にしか感度がありません。
それでは困る、というので赤色に感度を持たせる技術革新が行われました。
 
写真の初期のものは「色盲」だったのです。
 
現在でも、色に関係がなく濃度だけのプリントをする白黒印画紙には、赤に感度を持たないハロゲン化銀そのものを使用しています。
従って、暗室で現像をするとき、赤色ランプの下で現像処理を行ってもカブる事がないのです。
 
ハロゲン化銀がこのような波長依存をもった感光材料であるために、乳剤に染料や分光増感剤を添加して赤色領域まで感度を上げる工夫がなされました。
白黒ネガフィルムは、このような理由から、5種類ほどのフィルムが開発されました。
それをまとめると以下のようになります。  
 
1. レギュラー(Regular):
初期の感光材で、非感色性(non color sensitive)、非整色性、青感性(blue sensitive)、普通性、など呼ばれています。
このフィルムの感色領域は、紫外、紫、青、及び緑の一部です。
主に映画のポジフィルム、サウンドフィルム、一般複写用のプロセスフィルム、X線フィルムに使われています。
この感色性のフィルムは一般の撮影には不向きですが、暗室に明るい赤色安全灯を使用することができるので 作業がしやすいというメリットがあります。
またこの感光材は保存性がもっとも良好です。
 
2. オルソ(整色性、Ortho chromatic):
感色範囲は、紫外、紫、青、緑、黄色までで、赤色には感度を持っていません。
撮影対象物に赤色領域を必要としない場合に使われることがあります。 この感光材を使えば、現像時に赤色安全灯を使うことができるので現像処理が安易にできます。
製版用の乾板やシートフィルムを除いて使われることがなくなりました。
 
3. パンクロ(全整色性、Panchromatic):
紫外から赤色まですべての可視光にわたって感度を持つ感光材です。
白黒フィルムはすべてこのタイプのものです。
パンクロといっても初期にはA、B、Cと三種類を区別していました。
A型は初期のパンクロのことで緑色に対する感度が低く、赤に対する感度も低いものでした。
B型はパンクロの一般的なもので人間の感色にもっとも近いものです。
B型のことをオルソパン(Ortho Pan)とも呼んでいました。
C型は、以下で述べるスーパーパンのことです。
 
4. スーパーパン(Super Panchromatic):
パンクロの中でも特に赤色部に感度が良い感光材です。
従って電灯光(タングステンランプ)による照明下の室内や夜景の撮影に適していました。
市販のフィルムでは、富士ポートレートパンクロなどがありました。
 
5. 赤外用(Infra-red sensitive):
赤外(ピーク波長750nm)に感度をもった感光材で特殊使用に使われました。
この感光材の特徴は保存寿命が短く数週間から数ヶ月でした。
自動車の速度取締用カメラのフィルムとして使われました。
 
 
●リバーサルフィルム(Reversal Film、Negative Film)
写真フィルムの原点は白黒ネガティブフィルムでしたが、カメラ産業が発展していく過程でいろいろなタイプのフィルムが開発され市販されました。
撮影したフィルムをそのまま見たいという(わざわざプリントをせずにフィルムを直接見たいという)要求に応えたのがリバーサルフィルムと呼ばれるものです。
また、光を3色に分けて記録するとカラー記録ができることから、カラーネガティブフィルムが開発され、その後カラーリバーサルフィルムへと進展します。
     
 
■フィルムのタイプ (2001.01.09)(2009.11.23追記)
フィルムの基本は上記に述べた通りですが、そのフィルムの外装は実に様々です。
新しいカメラが出てくるたびにいろんなタイプのフィルムが現れました。
最初は、ガラス板であった銀塩乾板から、扱いやすいセルロース系のフィルムに変わり、さらに一度にたくさんの写真が撮れるようにシート状からロール状のフィルムに変わりました。
最終的には、パトローネ入りの35mm巾ロールフィルム、それに60mm巾の黒紙に被われたブローニー(Brownie)タイプのロールフィルム、4 x 5 インチのシートフィルム、APSカートリッジフィルムが市場に出回りました。
 
■ フィルム番号
フィルムのタイプを番号で表す言い方は、ロールフィルムを世に広めた米国イーストマン・コダック(Eastman Kodak)社の影響が大きいようです。
銀塩感光材は、乾板の時代は米国よりもイギリスの方が盛んであったようですが、1891年、イーストマン・コダック社からロールフィルムが発売されて以来、米国のコダック社が主体となって大衆に力を入れたロールフィルムカメラが発売されるようになりました。
コダックというと、フィルムメーカというイメージが強くありますが、この会社は写真撮影のためのカメラとフィルム、それに現像プロセスのためのケミカル材料を扱ってきました。
コダックは新しいビジネスの試みとして、まずフィルムを詰めたカメラを客に販売し、客が撮影を終えたらそのカメラを送り返してもらい、フィルムの現像とプリント処理をして、さらに新しいフィルムを詰めてユーザに送り返すというサービスを世界で初めて行い米国で急成長を果たします。
また、いろんなタイプのカメラを作って、その都度そのカメラに使うフィルムを供給してきました。
 
コンシューマ向けのカメラは、映画用フィルムを短く切ってパトローネに入れたライカサイズのカメラが1925年にドイツで作られ、その成功と共に、カメラの流れがドイツに移り、戦後日本に移って現在に至っています。
フィルムは、米国コダック社が最も力強く業界を牽引してはいたもの、小型スティルカメラを作ったドイツではアグファ社(Agfa: 1864)とベルギーのゲバルト社(Gevaert:1894 )がフィルムを作っていました。
また、英国ではイルフォード社(Ilford: 1879)、日本では小西六(1873)と富士写真フイルム(1934年、1919年設立の大日本セルロイドから分社化、2006年富士フイルム)が精力的にゼラチン銀塩感光材を製造していました。
コダックは、1890年代よりカメラ、フィルム、現像、プリントを一手に引き受けていましたが、1910年代ドイツのカメラが世界的に売れるようになると、カメラにフィルムを詰めてお客に渡す商売から、フィルムだけを販売するビジネスに特化するようになって行った感じを持ちます。
パトローネ(patrone)というのはドイツ語であり、英語ではfilm cartridgeと言います。
1895年、コダックがフィルム番号101番を与えて以来、年ごとに1-3種類のフィルムが新しく作られ、20年間に約30種類のフィルムが発売されたと言います。
面白いことに、たくさん出されたフィルムの種類は、フィルムが最初にできたのではなく、カメラが最初にできてそれを合わせるようにフィルムができていった感じを与えます。
それほどフィルムの開発番号とサイズにはなんの脈絡もありませんでした。
 
▲ フィルムのサイズ  (2009.11.23記)
フィルムのサイズは、写真がイギリスとアメリカを中心にして1880年代から1960年代までリーダ的な役割を果たしてきたので、インチでの寸法となったのはよく理解できます。
しかし、規格のあちこちにメトリック(ミリ寸法)が見え隠れするので混乱します。
銀塩写真は、もともと1830年代にフランスで発明されますが、機械工業と光学工業が優れていたイギリスがカメラとレンズを作り上げます。
銀塩感光材の発展はイギリスに追うところが大きく、機械工業の発達したイギリスはカメラ(木製)を作り、カメラレンズも優秀なものを作り上げます。
感光材料は、当時写真家が自分で作っていました。
写真材料を規格化してカメラに合わせて商品化したのは、アメリカのイーストマンコダック社です。
写真の大量消費を成功させたのは、コダック社のロールフィルムのおかげでしょう。
 
■ アメリカのインチ規格
世界的に最もよく売れたフィルムは、35mm巾のタイプ135というパトローネサイズのものだと思います。
35mm巾は、イーストマンがエジソン研究所のために作った映画フィルム1-3/8インチ巾( = 34.925mm)から来ています。
イーストマンには、当時、2-3/4インチ巾( = 69.85mm)のロールフィルムがあって、動画撮影をするときに、このフィルム巾では大きすぎるので半分の巾にしました。
それに加えて、両端にフィルムを送るための孔(パーフォレーション、perforation)を設けました。
(パーフォレーションは、当初はイーストマンでさん孔されずにユーザが行っていたようです。
フィルム開発当初は、エジソン社が撮影の前にさん孔を行っていたようです。)
パーフォレーションは、3/16インチ( = 4.7625mm)(後の規格は4.750mm)間隔で空けられました。
4つ分のパーフォレーションのスペースに一枚の画像(フレーム)を収めるようにしました。
1枚の画面サイズは、縦3/4インチ( = 19.05mm) x 横1インチ( = 25.4mm)でした。 縦横比3:4です。
これが映画フィルムと映画サイズの規格となりました。(これは40年後に始まるテレビジョンの画面の縦横比ともなりました。)
映画フィルムは、1フィート長に64個のパーフォレーションが空けられたので、4個分のパーフォレーションで作られるフレーム は1フィート16枚となりました。
当時の映画は、16コマ/秒で撮影撮影されていましたから、1秒の撮影に要するフィルムは1フィートとなり、フィルムの消費量と撮影時間は簡単に換算できました。(1930年代よりトーキーの時代になると、音質の問題上、撮影速度は24フレーム/秒に上げられました。)
古いカメラマンは、撮影時間のことを尺数(しゃくすう)と呼んでいました。
尺は、日本の尺でなく英国の尺で1フィートです。
映画フィルムは、100フィート巻(30.3m)と400フィート巻(121m)が主流なので、それぞれ100秒( = 1分40秒)と400秒( = 6分40秒)の撮影時間容量だったことがわかります。
  
■ フランスのメトリック規格
アメリカのエジソンと同時期に(実際には1年遅れで)フランスのルイ・リュミエールが同じタイプの映画カメラと映写機を作りました。
フランスはメトリック提唱の国ですから、寸法規格はメートルです。
従って、彼らが作ったカメラはメトリック規格で作られました。
フィルムは、当時米国のイーストマンコダック社のものが品質が良くてたくさん出回っていたので、これを流用したと思われます。
しかし画面寸法は、メートルに直して縦18mm x 横24mm(3:4)としました。
こうした理由から、映画産業は、大所はインチでの寸法によって規格が決められながらも、細部の寸法規定にメトリックが使われたり、インチで作られた規格がメトリックで丸められたりしました。
フィルムが国際規格になった時も、ヤードポンド法の米国と英国、メトリック法のフランス、ドイツで激しいやりとりがあって、ある所はメトリックで丸められたり(フィルムの巾)、ある所(パーフォレーションのピッチ)はインチのままで規格になったようです。
35mm巾の映画フィルムを小型カメラに流用したのが、1913年で、ドイツライツ社のオスカーバルナックでした。
このカメラの画面サイズは、8パーフォレーションで1画面を構成する縦24mm x 横36mm(ライカサイズ)としました。
このライカの成功で、小型写真機のフィルムは120ブローニーフィルムから135パトローネタイプのフィルムに変わって行きました。
      
▲ 危険なセルロイド(Celluloid)
ロールフィルムに使われたセルロイド(Celluloid)は、1862年に英国のパークス(Alexander Parkes: 1813 - 1890)がニトリルセルロース( = NC、Cellulose Nitrate)の製法を発明して特許を申請し、Parkesine(パーキシン)と名付けました。
化学樹脂の最初の製品と言われています。
1869年、米国の発明家ハイヤット兄弟(John Wesley Hyatt、Isaiah S.Hyatt:1837 - 1920)が、同種のものをセルロイドと名付け大量生産の道を開きました。
ハイヤットは、ビリヤード球を人造する懸賞に応募するためにセルロイドを発明したといいます。
英国人パークスの事業は2年ほどで失敗し、それを受け継いだ英国の実業家ダニエル・スピル(Daniel Spill: 1832 - 1887)の会社も1874年に潰れてしまいます。
結局、ハイヤットがセルロイド工場経営に成功したものの、倒産した会社のスピルとの間で特許に関して裁判になったと言います。
セルロイドは、ニトロセルロース(良質の木綿繊維から作られる綿薬)を原料としてこれに樟脳を可塑剤として硝化させた熱可塑性プラスチックです。
寸法安定性が良いため、べっ甲や象牙の代わりに使われました。
私が子供の頃の1960年代、石油化学製品から作られるプラスチックの種類が潤沢になかった頃は、化学樹脂と言えばセルロイドかベークライトで、セルロイドは下敷きや筆箱、クシ、ピンポン球などに使われていました。
戦前から戦後を通して、日本のセルロイド生産は世界一だったと言われています。
セルロイドは非常に良く燃えて、壊れた筆箱や下敷きを火にかざすと勢いよく燃えたのを覚えています。
   
▲ 最初のフィルム - Geoge Eastman 【ジョージ・イーストマン】
ジョージ イーストマンこの新しい材料に目をつけたのがアメリカ人のジョージ・イーストマン(Geoge Eastman、1854-1932)です。
彼は、ニューヨーク(Watervile, New York)の貧しい家に生まれます。
14才でロチェスターの公立学校を卒業して、保険会社と銀行に勤めだしました。
彼の受けた教育は、義務教育まででした。
彼と写真の出合いは、ドミニカ共和国の首都サント・ドミンゴへの旅行を計画した際に、友だちから旅行の写真記録を撮るようにすすめられたことがきっかけでした。
今ならスマートフォンにカメラがついているので何の問題もないのですけれど、1870年代(コロジオン湿式感光材)当時、写真を撮るというのは並み大抵のことではなく、キャンプセットと同じくらいのかさばる撮影機材と感光材料を調合する薬剤や現像処理剤など一式を持ち運ぶ必要がありました。
彼はそのことが契機で写真にのめり込んでいきます。
彼はまず、写真というものから勉強を始め、1時間5ドルの授業料を払って写真術を学びました。
彼はがんばり屋でもあったようです。
結局、写真にのめり込み過ぎ、旅行をするお金を写真の勉強に使ってしまったので、旅行は諦めざるを得ない状況になってしまいました。
イーストマンは、Rochester Saving銀行に簿記係として勤める傍ら、サイドビジネスとして銀行が引けた午後3時から翌朝の朝食時間まで写真材料の製造販売をしていました。
当時(1870年代)の写真術は英国が秀でていました。
タルボットのネガ感光材(カロタイプ)の発明から、アーチャーのコロジオン湿式感光材、マドックスのハロゲン化銀を混ぜたゼラチン乳剤にいたるまで、すべて英国人によって写真術を進化させていました。
それと、イギリスの機械工業と光学技術、さらに出版技術と大きな経済機構もあって、当時の写真産業は英国が最も秀でていました。
これらイギリスの力によって、秀逸なカメラ(とレンズ)が作られていました。
ジョージ・イーストマンは、それらの技術を取り寄せて学んでいきます。
当時、こと写真術に関しては、技術知識の習得は大らかで、出版物も包み隠さず新しい技術を公開していたようです。
アマチュアのジョージ・イーストマンは、「British Journal of Photography」などの書物を取り寄せて知識を吸収していたそうです。
このようにして、ジョージ・イーストマンは、ガラス板にゼラチン感光乳剤を塗った乾板を製造して販売をするまでに写真にかかわりはじめました。
1881年、彼が27才の時、銀行を辞めてEastman Dry Plate Companyを設立します。
彼の乾板会社は繁昌しましたが、同業者が増えるにつれ将来に対する不安を覚えるようになりました。
もっと使いやすい写真を作れば売れるに違いない。
苦労人のイーストマンはそう考えました。
 
【カメラと抱き合わせのフィルム販売ビジネス】
そこで、当時脚光を浴びていた新しい人造樹脂のセルロイドに目をつけて、ガラスや紙を使っていた感光支持体から置き換えられないかと考えました。
そして、セルロイドに感光材を塗布してロール状にしたロールフィルムを発案し、それに必要なカメラも作って1888年から販売を始めました。
ガラスでできた感光板は持ち運びに不便で、しかも高価でした。
高価なカメラを使った写真撮影を、ロールフィルムの発明によって大衆の持ち物に変えようとしたのです。
しかし、ロールフィルムの発明そのものでは彼のビジネスはブレークしませんでした。
彼はそこで、もう一工夫しました。
100枚分撮影できるロールフィルムを詰めたカメラを販売し、撮影が終わったらカメラごと送ってもらい現像とプリントをして再び新しいフィルムを詰めたカメラと一緒に送り返すというシステムを考えだしました。
これは大いに当たりました。彼は、  
"You press the button, we do the rest"  -  あなたはカメラのシャッタを押すだけ。後は私達がやります。
というスローガンをかかげて、「Kodak Camera」を大々的に宣伝し販売しました。
このカメラとフィルム現像・プリントサービス戦略は大成功し、コダックの名前が全世界に知れ渡るようになりました。
このカメラは親しみを込めて、「the Kodak」と呼ばれるようになりました。
 
【Kodakの社名】
Kodakカメラこのシステム販売戦略の際、彼は自分の会社を最も敬愛する母親の名前のイニシャル『K』を取り、親しみやすい名前の『Kodak』という商標にして、1892年ロチェスター(Rochester, New York)の地に Eastman Kodak Company を設立し、映画用ロールフィルムまで手掛けるようになります。
コダックの名声を不動のものにしたのは、1912年に売り出したベストポケット・コダック(左写真、Vest Pocket Kodak)でした。
このカメラとフィルムの成功により、コダックの名前が全世界に知れ渡るようになりました。
このカメラには127番のロールフィルムが使われていて、このフィルムのことをベストフィルムと呼び、画面サイズが4cm x 6.5cmであったことからこのサイズをベストサイズ(ベスト判)と呼んでいました。
ベストカメラは、最良(ベスト)のカメラという意味ではなく、ベスト(チョッキ)のポケットにも楽に入るというので名付けられた名前です。
このカメラによって、写真の需要を一般のアマチュアまで広めたと言われています。
 
 
【特許争議】
ハンニバル グッドウィンコダックのロールフィルムは、当然のことながら特許を取得し販売していました。
しかし、面白いエピソードがあります。
Eastmanの発明したロールフィルムは、実はKodakがロールフィルムを販売する1年前の1887年、牧師Hannibal Goodwin(1822 - 1900)によってすでに発明されていて、特許申請もされていたのです。
65才の牧師Goodwinは、日曜学校でガラス乾板に書かれた聖書をランタン灯のプロジェクタに映して授業をするのを好んでいましたが、操作が面倒くさいと化学的知識のないまま自宅の片隅で試行錯誤の未可撓性の透明セルロイドフィルムを作り出しました。
1869年のことです。
彼は特許を出願しますが、その書類は化学的な根拠をもたないあいまいな書類だったようです。
コダックはその特許を知ってか知らずか、間髪を入れずに特許申請して、製造工場を立ち上げ、トーマス・エジソンから映画用のロールフィルム開発の注文まで受けて事業を拡大します。
方やGoodwinは、ロールフィルム工場を作ろうにも全く資金がなく、当人も立ち上げ半ばで事故により死んでしまいます。
彼の死後、ニューヨークにあるAnthony & Scovil社(1907年にAnsco社)が特許を引き継いでロールフィルムの製造を始めます。
と同時に、コダックを相手取って1902年より特許権の訴訟を始めます。
この訴訟は12年の長きに渡って続き、最終的にはGoodwinの特許申請がコダックより早く申請されていた事と、特許内容が極めて酷似していることからコダックの敗訴に終わり、500万ドルの賠償金の支払いが命じられました。
裁判に負けたコダックでしたが、その頃にはコダックは事業に大成功していて、ロールフィルムと言えばコダックと言われくらいの大企業に成長し巨大な富みを築き上げていたので、裁判に勝って賠償金を手にしたAnsco社がコダックのライバルになることはありませんでした。
 
【Kodakの成長】
大会社の社長となったイーストマンは、自らの会社を医療保険や退職年金、生命保険などの福祉体制をどこの会社よりも早く導入し、多くの財産をマサチューセッツ工科大学や病院に寄付しています。
さらに多くの育英事業にも多額の寄付を施し、自らが受けられなかった学校教育を多くの人に受けてもらえるようにしました。
彼は生涯独身のまま過ごし、健康の衰えを感じた77才の年、1932年に、
「自分の仕事は終わった。これ以上生き長らえて死を待つ意味がない。」
というメモを残し、ピストル自殺で生涯を終えました。
  
【ビジネスとしての写真業】 (2020.08.26追記)
フィルム産業を世界的な一大事業に押し上げたイーストマンは、写真術だけでなく多方面にわたるビジネスの才能を発揮し自分の会社を一大企業に押し上げました。
写真はとても魅力的な産業で、1800年代後半から1900年代に渡って多くの人達がこのビジネスに参入し切磋琢磨してしてきたことだろうと想像します。
イーストマンはそうした競合会社に打ち勝って、競合会社が追いつけないほどの品質と商品を開発し、経営的にも盤石で全世界を相手に信頼を勝ち得て行きます。
特に映画フィルムに関してはハリウッドのお膝元ということもあり、圧倒的な支持を得ていました。
私が写真に目覚めた20才の頃(1970年代)、フィルムの品質はコダックが一つ抜けていたように感じていました。
社会人になって科学写真に携わるようになると、Kodakの写真に関する技術資料がとても充実していることに驚きました。
1979年に発刊された Ensyclopedia of Practical Photography by Eastoman Kodak(全14巻、英語版)は、コダックがまとめた写真に関する百科事典です。
麻布にある東京都立中央図書館にそれがあって、時間を見つけてはその図書館に通ってその事典をめくっていました。
その事典は英語版であったため、日本語が出ないかと待ちわびていたところ、1981年に講談社から写真大百科(全10巻、月に一回発刊、最終巻は1982年5月)が発刊されたので、それを買い求めることができました。
日本語版は、英語版の完全和訳ではなく日本の写真家や学術研究者によって大幅に手が入れてあり、現役の写真家用に作られたもでした。
私にとっては英語版の事典の方が仕事上情報が深いものでした。
この事典を含め仕事上で入手したフィルムに関するKodakの技術資料はとてもしっかりしたもので、米国の文化である資料をきちんとまとめ上げる力量と姿勢に舌を巻きました。
コダックは、難しい写真技術を科学的に探求し品質の極めて高い製品を大量に全世界に送り出していました。
たくさんの種類のフィルム感光材のみならず、現像に関する薬液や手法、機械まで標準化しました。
 
コダックの躍進は、高田俊二氏の「写真産業の技術革新史 - その1」(日本写真学会誌2014年77巻2号: 76 - 82)に詳しく書かれています。
氏の論文によると、
「銀塩感光材の進展は、1860年代からの英国の写真材料家による功績が大きい。彼らが発明した技術革新の数々を業界誌に惜しげも無く発表し、多くの起業家がそれを読んで産業を盛り上げていった。」
と書かれてあります。
コロジオン湿式法も、ゼラチンによる乾式乳剤、ヨウ化銀の熟成による高感度化も英国人の発明でした。
米国東海岸ニューヨーク州ロチェスターに住むジョージ イーストマンは、熱心な起業家であり研究家でもあったようです。
米国において自社で本格的に写真感光材を製造始めたのは、John CarbuttによるKeystone Dry Works社(フィラデルフィア、1879年)とGustav CramerによるCramer & Nordern社(セントルイス、1879年)、そしてGeorge EastmanのEastman Dry Plate社(のち、Eastman Kodak社)(ロチェスター、1881年)の3社であったと言われています。
それ以前には米国の輸入会社(Anthony社とScovil社)が感光材を輸入するかたわら自社製造を始めたものの、価格と品質で対抗できず断念した経緯があります。
米国の3社は米国内の需要が伸びつつある中にあっても淘汰され、Eastman Kodakが残りました。
Kodakの経営戦略もさることながら、銀塩感光材の製造に対する真摯な姿勢と品質向上のための設備投資を怠らなかったからだと言われています。
フィルム感光材の問題点は、ゼラチン品質のバラツキによる感度低下であったと言われています。
 
 
   
 
▲ フィルムベースの変遷
セルロイド(ニトロセルロース)はかなり危険な材料です。
その危険なフィルムが何故長い間使われていたのでしょう。
映画フィルムは、現像過程を通った後、映写機にかけられ何百回となく使われます。
湿度や温度に対し、セルロイドは寸法変化が少なかったのです。
しかし、着火性が強いため火災の危険がありました。
セルロイドの主成分であるニトロセルロース(75%)は火薬にも使われるほど可燃性が強く、可塑剤である樟脳(25%)も着火性が強く、100°C 以上の比較的低い温度で分解して、170-180°C で発火します。
火炎の伝播速度も速く、着火すると驚く程の勢いで火が回ります。
1984年9月3日(月)、東京都中央区の東京国立近代美術館フィルムセンター倉庫からの出火は有名で,330本にも及ぶ古い名画フィルム(セルロイドフィルム製)が焼失してしまいました。
セルロイドはまた条件によっては熱で分解した時に有毒な窒素酸化物が発生するため、中毒の恐れもありました。
 
戦後、1955年になって、燃えにくい酢酸セルロース系フィルム(トリアセテートセルロース = TAC)が開発され、さらにポリエステル(ポリエチレンテレフタレート、PET)となりフィルムベースによる発火の心配はなくなりました。
ポリエステルは強靱な樹脂であるため、薄いフィルムにすることが可能です。
音楽用のテープや、1980年代に急成長したビデオテープにも使われ、フロッピーディスクの材質にも使われました。
ペットボトルのPETは、ポリエステル(ポリエチレンテレフタレート)でできています。
コダックはポリエステルベースフィルムをマイラー(Mylar)ベースフィルムと呼んでいました。
マイラー(Mylar)は、米国デュポン社の登録商標です。
銀塩フィルムでは、4x5シートフィルムにマイラーベースフィルムが使われたものの、35mmフィルムやブローニーフィルムではまず使われることはなく、その前から登場していたトリアセテートフィルムが使われ続けられました。
その理由は、ポリエステルフィルムが強度的に強すぎるからでした。
ロールフィルムは機械を使って現像処理を行うため、万が一フィルムが現像機内で乗り上げてしまった場合、大きな事故が想定されました。
フィルムが強いため機械を壊してしまうのです。
1980年代、映像計測用に、主に宇宙開発用にマイラーベースの16mmフィルム、35mmフィルム、70mmフィルムが一部使われました。
宇宙空間にフィルムを持っていくとフィルム内に残存している水分が蒸発してフィルムが大変もろくなります。
また、トリアセテートは低温になると脆くなりフィルムを送る爪でパーフォレーションが破れてしまいます。
そのような過酷な条件で撮影フィルムを使う時、マイラーフィルムはその良さを発揮しました。
IMAXに使われる70mmフィルムにはエスターベースのフィルムが使われています。
耐久性を考慮した選択です。
 
 
【60mmロールフィルム(ブローニーフィルム)】
60mm巾(正確には、2 1/2インチですから63.5mm巾)のロールフィルムは、一度にたくさんの写真を安価に提供する観点からガラス乾板、シートフィルムに代わって考え出されたものです。
歴史的に見て、ロールフィルムはこの60mm巾のものが最初のようです。
これを発明したコダックは、当初、フィルム巾を2 1/2インチ巾として3種類のタイプ(117番、120番、620番)を出していました。
117番は、画面が2 1/4 x 2 1/4 (いわゆる6x6判)、120番は2 1/4 x 3 1/4 (いわゆる6x9判)という具合です。
現在では、1901年に発売された120番が、中判カメラ用の代表的なロールフィルムとしてブローニー(Brownie)フィルムという名前で生き残っています。
ブローニーという名前は、当時コダックがこのフィルムを売り出した時に宣伝に小人を使っていて、その小人の名前がBrownieであったことから名付けられたニックネームです。
このフィルム(ブローニーフィルム)はその後ハッセルブラッドやマミヤ、富士写真、ゼンザブロニカなどの中判カメラに使われ最後まで残りました。120タイプ、220タイプの2種類があります。
我々に馴染みの深いパトローネ(patrone[独]、film cartridge)入りの35mm巾の135タイプと比べると、ブローニーフィルムは細長です。
ブローニーロールフィルムは、巾62.75mmの細長い黒紙を裏打ちの遮光紙として、それより少し短めのフィルム(61.5mm)を一緒にしてきつくスプールに巻き付けた構造になっています。
ブローニーフィルムは一方向の送りで、撮影が終わると終わりの黒紙がフィルムを包むようにして巻かれ、裸になった供給スプールは次のロールフィルムを巻き取るために巻き取り側に入れ替えて使います。
単純な構造なのですが、この構造は遮光性がしっかりと保て、太陽光線の下でもカメラへの出し入れを行うことができます。
フィルムと一緒になって巻かれている裏紙の背には、番号がふられていて、カメラの背面の赤か緑の小窓からその番号が見え何枚のフィルムを撮ったがわかるようになっています。
後年のカメラは、操作者がフィルム巻き上げノブを回して、小窓からフィルム枚数が確認できるようになってます。
カメラのメカ精度も上がっているので、フィルムを巻き上げると自動的にフィルム送りがストップする機構になっています。
このフィルムには、35mmフィルムのようなパーフォレーション(孔)がなく、巻き上げのストローク機構でフィルムを送るようになっています。
初期の60mm巾のロールフィルムは、60mm x 90mm サイズが6枚撮れる1種類だけでしたが、その後、ブローニー判とよばれる120サイズに統合されるようになりました。 120サイズはフィルムの長さが825mmあり、これで60mm x 90mm サイズで8枚の撮影ができ、60mm x 60mm で12枚、60mm x 45mm では16枚が撮れる容量となっていました。
220サイズのフィルムは、フィルムの前後だけに裏紙をつけてあとはフィルムのみとし、120サイズのフィルムの倍の長さのフィルムが巻き込んであります。
220タイプは120の2倍のフィルム長さがあり、60mm x 90mm サイズで16枚、60mm x 60mm で24枚の撮影が可能になっていました。
ハッセルブラッド(Hasselblad) 2005年 ブローニーフィルムを使用した中判カメラの代表機種。多くのプロカメラマンあこがれのカメラ。 アポロ11号が月に持っていったカメラとして、有名になった。
現在は、デジタルバックも手がけている。
 
【インチ寸法】 (2020.05.14追記)
これらのフィルムサイズは現在ではメトリック(ミリ表示)で言い表わしますが、規格を作った時にはインチでした。
アメリカは今に至るまで工業製品をインチサイズで作っている国なので、1890年当時、メートルで規格を作ることはあり得なかったはずです。
フィルムの巾も60mmぴったりの規格とは考えづらく、2 1/2インチ(63.5mm)ではなかったろうかと考えています。
古いものを調べる時に、インチの世界をすべてメートルで当てはめると歴史を正しく判断することが難しくなります。
なぜ、60mm巾のフィルムが登場したのかをメートルの単位系で考えても答えの出しようがないからです。
こうして見ると60mmフィルムというのは正しくなく、2 1/2インチ(63.5mm)巾というのが正しい言い方のような気がします。
ロールフィルムができない以前のフィルムはガラス乾板が使われていて、4x5インチ、8x10インチなどのサイズがありました。
これらの乾板は英国がもっとも盛んに作っていたので、英国規格(インチ規格)になったのは理解できます。
ロールフィルムは、多くの消費者に渡るものですから規格が大切で切りのいいサイズが当然あったと考えています。
 
現在、ブローニーのフィルム巾の規格は、61.5mm+0/-0.2mmとなっています。
61.5mmという寸法をインチに当てはめようとすると、切りの良い数値があてはまりません。
 
メートル法は、10進法を適用しているので、10.123というように自由な数値が設定できます。
方やインチ寸法は、古来、1/2、1/4、1/8、1/16、1/32という具合に半分ずつで細かくわけていき、分母を2の倍数にして分子を分母の数まで足していくやり方をとっています。
(右図のノギスにはメトリックとインチ表示の2系列を測定できるようになっていますが、インチ表示は1インチを16分割しバーニアは、8分割されて、1/128インチ単位での測定をするようになっています。)
つまり、1/8の系列ならば、1/8、1/4、3/8、1/2、5/8、3/4、7/8、1という数列になります。
従って10進法のような自由な数値表現が苦手のはずです。
 
このことから、私が想定している120ブローニーフィルム巾は、2 1/2インチ(63.5mm)ではなかろうかと邪推しています。
ところが、JIS規格ではブローニーサイズのフィルムは61.5mm巾と決められていて、その差(2mm)がどうしてできたのか理解に苦しんでいます。
コダックの寸法規定では、120ロールフィルム巾は、2.41インチ〜2.45(61.24mm〜62.23mm)インチの範囲内で製造していると言われています。
この数値は10進法表記であるので、これを一般的的な2進数の分数表記に直すと2 7/16インチ(61.9mm)となり、これが設計寸法なのかも知れません。
しかし、それでも、現在の寸法と0.4mmの誤差が生じてしまいます。
また、ブローニーとは別に、35mm( = 1-3/8インチ巾)フィルムの原型ともなった70mm巾( = 2-3/4インチ巾)のロールフィルムが初期の頃にあったと思うのですが、この文献も今だ確としたものが見あたりません。
 
銀塩感光材が発明されたのは1830年代終わりのことでフランスで興りました。
英国が感光材を改良して(カロタイプ→コロジオンタイプ→ゼラチン乳剤)、同時にカメラ(撮影暗箱とレンズ)も製作して一大産業にしました。
その後、1880年代初めに新大陸米国のコダックがロールフィルムを開発し、1890年代初めには映画産業が起きて、大いに盛んになっていったという経緯があります。
これらは寸法規格にも現れ、フィルムの規格も競争力のあるメーカーが覇権を握っていった感を強く持ちます。
シートフィルムを使うボックスカメラは英国が性能の良いものを手がけたので、インチサイズのシートフィルムができ、ロールフィルムも米国のコダックが開発したのでインチサイズとなりました。
映画カメラは米国でさかんになりますが、初期の映画はフランス(リュミエール兄弟のカメラとパテ)も熱心だったので、インチとメトリックの相乗りになった色彩を強く感じます。
 
 
●フィルムのカーリング(Curling)
ロールフィルムは非常に薄く、約0.1mm厚のアセテートベースに感光乳剤が塗布されています。
このために、初期のフィルムでは乳剤塗布面や反対側に湾曲するカーリングに悩まされ、特に現像後のフィルムのカーリングは頭の痛い問題でした。
このカーリングを防止するため感光材面の反対側に透明なゼラチンを塗布して使用していました。
現在でもほとんどのロールフィルムにはゼラチンを素材としたカーリング防止裏引き層が施されていて、現像処理後でもほぼ平らな面を保っています。
 
【35mmロールフィルム】
写真カメラができた時のフィルムは木でできた箱形のカメラに使う乾板フィルム(4x5タイプ、8x10)や、その後の60mmロールフィルム(ブローニー)が主流でした。
カメラはその後、木製の大きなカメラから持ち運びやすいカメラ(ライカカメラ)が作り出されました。
フィルムは、映画用の35mm巾のフィルムを流用していました。
映画用カメラは、100ft長(30.5m)、400ft長(120m)などの専用のマガジンに入れて使っていたので、小型カメラにもそうした専用のマガジンが必要でした。
初期のカメラにはフィルム詰替用のマガジンがいくつか用意されていて、使用者は長巻きフィルムを細かく切ってマガジンに詰め替えて使っていました。
1913年、ドイツ Ernst Leitz社の技師オスカー・バルナック氏(Oskar Barnack, 1879 - 1936)が、映画用の35mm巾のパーフォレーション付きのフィルムを利用した小型カメラ「ライカ」を作りました。
このカメラの撮影サイズが24mm x 36mm(8パーフォレーション)であったため、以後このサイズを ライカサイズと呼ぶようになります。
バルナックが長尺映画フィルムを切ってフィルムカセットに詰めるとき、彼の拡げた両腕の一尋(ひとひろ)の長さ( =  137cm)が36枚撮影できたことから、これがフィルム36枚撮りの標準となりました。
36枚撮りマガジンが一般的になってくると、フィルムをマガジンに詰め替える必要のないパトローネ(patrone[独]、film cartridge)入りのフィルムが販売されるようになり、18枚撮り、36枚撮りの白黒とカラーフィルムが売られるようになりました。
それが135タイプのフィルムでした。現在一般的に使われている135タイプのパトローネ入りの35mmフィルムは、1934年にコダックによって作られて、型番に135が与えられました。
このパトローネ入りフィルムは、35mmフィルムカメラの急成長に伴って1960年以降フィルムの代名詞になるほどに普及を見ました。
その後、少量の撮影ができる12枚撮りも市販され、18枚撮りは20枚撮りに変わり、そして24枚撮りとなりました。
歴史的にフィルムの撮影容量を見てみますと、36枚撮りが最初で、その半分の18枚撮り、そして36枚の1/3の12枚撮りが登場しました。
結果的には、12枚撮りの倍数の24枚、36枚撮りに落ち着いたのは興味があることろです。
フィルムメーカがこの枚数にこだわっていたのがよくわかります。
20枚入りが24枚入りに変わった当時のことを良く覚えています。
これは私が高校2年生のときですから1972年頃です。
日本のフィルムメーカ、小西六(コニカ)が20枚撮りを24枚撮りにしてシェアを伸ばそうとしました。
当時人気タレントであった萩本欽一(コント55号)が、「どっちが得か、よぉ〜く、考えてみよう!」というキャッチコピーを流行らせました。
この宣伝に敏感に反応したのは富士フィルムで、すぐに24枚撮りを出し、当時王者だったコダックは趨勢を見ながら最後に24枚撮りを投入するようになりました。
消耗品であるフィルムは、同じ値段であるなら撮影枚数を少なくして売った方が利幅がとれるのです。
 
 
●パーフォレーション(Perforation)
35mmフィルムは映画用に作られたものですから、フィルムを正確に送る必要上フィルムの両側にパーフォレーションと呼ばれる孔が設けられています。
この孔のピッチは、4.75mm(0.1870インチ = 3/16インチ)と規格で決められているため、一眼レフカメラでは8パーフォレーション(37.998mm、1 1/2インチ)で一枚の画面構成になります。
このスペースにライカサイズでは、24mm x 36mm (1インチ x 1 1/2インチ)を割り当てています。
35mm巾のうちの11mm( = 35mm - 24mm)がパーフォレーション部に割り当てられ、縦方向分の2.08mm( = 38.08mm - 36mm)がフレーム間のスペースとなります。
こうしたパーフォレーションのおかげで60mmロールフィルムで使われていたような裏紙による枚数表示が不要となりました。
135タイプの35mmフィルムは、映画用のフィルムのパーフォレーションより若干大きめに作られているそうです。
映画用のパーフォレーションを採用すると、安価なカメラでは巻き上げスプロケットを精密に作ることができないため、巻き上げに誤差が出てうまく巻き上げられない不具合がでてしまうからです。
 
 
●35mmフィルムのカーリング(Curling)
35mmフィルムは、60mmフィルムより面積が小さくカーリングの影響が少ないためカーリング裏引き層は施されていません。
映画フィルムは現像後もロール状に巻かれて保存しますし、小型カメラでは撮影したフィルムを短く切って短冊状にして、それを袋にいれて保存するためカーリングの度合いが少ないのです。
     
 
■ 35mmライカサイズカメラ (2005.09.04記)(2023.09.28追記)
オスカー バルナック写真カメラと言えば「ライカ」と呼ばれるほど有名になったライカサイズのカメラとはどのようなカメラでしょう。
ライカは、ドイツのエルンスト・ライツ(Ernst Leitz)社のカメラという意味で「Leica」と呼ばれています。
ライカは、1913年にライツ社のマイスター(職人)オスカー・バルナック(Oskar Barnack:1879-1936)が開発したものです。
当時、ドイツでのマイスターは、一つの職場に留まって停年がくるまで(滅私)奉公するという日本のような徒弟制度はとっておらず、新しい技術を求めてドイツ国内を問わず近隣諸国を渡り歩いていました。
バルナックは、1900年から1910年までの10年間(彼が21才から31才の間)カール・ツァイス財団で働いています。
しかし、そこでの彼の働きは特筆すべきものはなく、"うだつの上がらない"職人だったようです。
その後、1年を経て1911年、32才の時に、ツァイス社よりも小さな会社であるウィッツラーにあるエルンスト・ライツ社に入社し、映画機械試験部長として働きはじめました。
 
入社2年後の1913年に、最初のカメラ、Ur Leica(ウル・ライカ。ウルというのはUrbild = 原初という言葉の短縮)を2つ製造しました。
映画機械の試験の仕事の合間に、映画フィルムを使ってカメラを自作した感じです。
バルナックは無類のカメラ好きだったそうで、そして小柄でした。
小柄な彼が、当時の箱型の組み立てカメラ(9x12センチ = 90mm x 120mmサイズの大手札判ガラス乾板を用いた蛇腹カメラ)を持ち運んで、撮影するのはとても大変だったようです。
エルンスト・ライツ社のエンジニア オスカー・バルナックが製作した
35mmフィルムカメラ、Ur Leica。1913年。
ちなみに、当時ドイツの箱形蛇腹カメラに使われたフィルムは、メートルサイズでありインチサイズではありません。
当時、米国のKodak社は、4インチx5インチシートフィルムを世に広めていました。メートル法を採用している国はそのためにいろいろな対応を余儀なくされていました。
(メートルサイズのフィルととインチサイズのフィルムに関しては以下の記事を参照して下さい 「■ メートルフィルムとインチフィルム」。)
その彼が、片手で持ち運べて簡単に撮影できるカメラに着目したのは納得の行く所です。
バルナックがカメラに採用したイメージサイズ(24mmx36mm)をライカサイズと呼んで、その後の35mmフィルムカメラの標準サイズとなりました。
バルナックは、最初、映画と同じイメージサイズ(18mmx24mm)(3/4インチ x 1インチ、メートル寸法と異なるが最初の規格はインチ)のカメラを作りましたが、画質的に良好な結果が得られなかったので、2倍のダブルサイズ(24mmx36mm)(1インチ x 1 1/2インチ)としました。
カメラに装填するフィルムの長さは、彼が腕を伸ばした長さ(一尋 = ひとひろ)としたため、36枚撮りの長さとなりました。
 
彼が作った2台のUr Leicaのうち、1台を社長のエルンスト・ライツ一世に渡したそうですが、ライツ社長はあまり興味を示さなかったらしく、折からの第一次世界大戦もあって忘れ去られていたそうです。
初代社長の死後、後を継いだエルンスト・ライツ二世が、彼のカメラを見てとても興味を示し、30台の試作カメラ(Null Leica)を作らせます。 これは、1923年のことでした。
ヌル(Null)というのは、「0」という意味で、I型、II型のできる前、すなわち試作機を意味したものです。
ヌル・ライカの評判は悪く、社内では製品化に反対する声が多かったそうです。
その理由は、あまりにも突飛なカメラデザインにありました。
今ではしごく普通でかっこ良いとさえ思える35mmフィルムカメラの撮影形態、すなわち、偏平のカメラの背面を顔に押し付けてファインダー越しに被写体を睨み、左手でカメラを支えながらレンズを回し、右手でカメラのブレを押さえながらシャッタを切る、という所作が奇妙に見えたのです。
 
ライツ社は、しかしこのカメラ、ライカI型を販売することに踏み切りました。
最初のデビューは、1925年4月、ライプチヒ・メッセの展示会出展でした。市場に出してみると、ライカの評判はおおむね好調でした。
一風変わったカメラが実は非常に実用的であり、簡便なカメラとして市場に受け入れられていったのです。
この展示会の後、ライツには500台の注文が入り、1年を経たない12月末には1000台の注文を受けたと言います。
以後、倍々と生産は伸びていったそうです。
このライツの成功に引きずられるようにして、ライバルのツァイス・イコン社からは「コンタックス」が発売され、この他に、日本のカメラメーカもこぞってライカを模範としたカメラを設計、製作しました。
なぜ、ライカは80年の長きに渡って愛され続けているのでしょうか。
その理由は、カメラ好きの職人が真心を込めて使い手の側に立ったカメラを作った事にあるでしょう。
ライカの基本構造は極めてシンプルだと言われています。
しかしそのシンプルさに、機械の神髄が隠されていると言います。
フィルムの巻き上げの感触と滑らかさは、ライカの前にも後にもない優れたものでした。
また、フォーカルプレーンシャッターの作動音、ショックの少なさ、操作ノブの質感、クロームメッキの重厚感、どれ一つをとっても持つ者の満足を与える品物であったそうです。
ライカは、なぜか一眼レフカメラを作っていません。
一眼レフカメラの台頭とともにライカの勢いは急速に衰えて、1970年代以降、35mmフィルムカメラと言えば一眼レフカメラと言われるようになり、日本製カメラが全世界を席巻するまでになりました。
高級一眼レフカメラは、ライカのようなレンジファインダー方式でなく、ファインダを覗いたままの視野が撮影でき、交換レンズが自由に使えて近接撮影も自由にできるものだったので、ライカ式のレンジファインダーを駆逐していったのです。
一説によると、1960年代まではライカがあまりにも性能で優れていたために、日本のメーカがそれに追随するのを諦めて、新しい方式の一眼レフレックスカメラに触手を伸ばさざるを得なかったと言われています。
面白いことに、1977年のジャスピンコニカを皮切りとして1980年代からオートフォーカスカメラが台頭し、それが安価なカメラにまで拡大されると、ライカスタイルであるレンジファインダー方式のカメラがすごい勢いで普及していきました。
   
【2000年代のデジタルカメラに影響を与えたフィルムカメラ】  (2012.02.23記) (2022.04.09記)
2012年、フィルムカメラの勢いはなりを潜め、代わってCMOS固体撮像素子を記録素子としたデジタルカメラが一世を風靡しています。
興味あるところは、記録媒体は銀塩感光材から固体撮像素子に変わりましたが、それをとりまくカメラの形状や付帯装置の多くはフィルムカメラを踏襲しています。
例えば、シャッタを切るシャッタ音は、メカニカルシャッタを持たない電子シャッタのデジタルカメラには無いものですが、フィルムカメラ時代のメカシャッタに似せて疑似音を出しています。
カメラレンズは、フィルムカメラ時代のものが使われ、カメラの感度を示す表記もISO感度相当で表されています。
デジタル一眼レフカメラでは、フォーカルプレーンシャッタをそのまま採用し、レンズと素子の間にミラーを配置しペンタプリズムで光学像をファインダーに導く従来の方式を取っています。
このようにカメラの歴史を見てみても、新しい技術が編み出されたとき過去の一切を捨てるのではなく、過去の良いものを取り入れながら組み合わせていくという手法が取り入れられています。
しかし、当然ながら新しいものができたときに淘汰されていくものもあります。
デジタルカメラの場合には、銀塩フィルムがまず淘汰され、それに伴い現像処理、紙焼きプリント工程も消えました。
代わって、HDD、ICメモリ(SDカード)やCD、DVD、BDなどの電子記録媒体に写真の保存が移り、液晶モニタで映し出して見るという形態に変わってきて、必要に応じてインクジェットプリンタやレーザプリンタで印刷するようになっています。
こうした流れによって、銀塩フィルムと銀塩紙を使った現像・焼き増しの手法は生き残る余地がなくなりました。(それでも2022年04月現在もフィルムを使っている人達が存在します。
デジタル時代になってもフィルム = 銀塩感光材料のもつ描写に魅力を感じている人たちが少数ながらもいます。(2022.04.09記))。
   
タイプ
呼称・番号
サイズ・備考
35mmフィルム
126
35mmフィルムカートリッジ。インスタマチック用フィルム。
1963年。135タイプのカートリッジ版。インスタマチックフィルムに古く使われていた番号を復刻させた。
135
一般の35mmフィルムカメラ用フィルム パトローネ入り12枚
映画用フィルムから製作。1934年。
35mm長巻
30.5m(100ft)缶入り
ラピッド
ラピッド方式パトローネ入り、12枚撮り
APS
 IX240
フィルム巾24mm、パトローネ入り。
1996年
ロールフィルム
127
カートリッジ入り、16mm巾、裏紙つき
インスタマチック用、12、20枚撮り
120
ブローニ判、61.5mm x 830mm、裏紙つき 。最も一般的なフィルム。
6 x 6、12枚撮り 。1901年。
620
ブローニー判、同上、細軸 。1932年 - 1995年
220
ブローニ判、6 x 6、24枚撮り
リーダー、トレーラー付き 。1965年。
828 616
116

日本では使用されず

116: 70mm巾(2 1/2 x 4 1/4 、6.5cm x 11 cm)。1899 - 1984

サブミニチュア
16カメラ用
16mm巾、パトローネ入り
ミノックス用
 
パックフィルム
大名刺(手札) 9 x 12
4 x 5
シート状フィルムを引き出し紙のついた裏紙に貼付し、12枚(10枚、16枚)をケースに入れたもの
シートフィルム
大名刺 手札 4 x 5 キャビネ 八つ切り 8 x 10
四つ切り
62 x 88mm、名称 JS(2 1/2 x 3 1/2) 81 x 106mm、名称 JS(3 1/4 x 4 1/4) 100 x 125mm、名称 JS(4 x 5) 118 x 163mm、名称 JS(4 3/4 x 6 1/2) 165 x 215mm、名称 JS(6 1/2 x 8 1/2) 200 x 250mm、名称 JS(8 x 10)
251 x 302mm、名称 JS(10 x 12)
70mmフィルム
70mn
70mm巾 映画用フィルム
インスタント写真
 
ポラロイド社
富士写真
カートリッジフィルム
110
カートリッジ入り、16mm巾、裏紙つき
ポケットカメラ用、12、20枚撮り
126
カートリッジ入り、35mm巾、裏紙つき
インスタマチック用、12、20枚撮り
ディスクフィルム
 
2.5インチ円板、15枚をディスクに放射状に撮影
映画用フィルム
8mm
カートリッジ
16mm
100ft、400ft
コア巻き、スプール巻き、両目、片目
35mm
100ft、200ft、400ft、1,000ft
コア巻き
70mm
100ft、200ft、400ft、1,000ft
コア巻き、パーフォレーションタイプI、II
     
 
【小型フィルムに対応したカートリッジフィルム】
 
●126サイズ パトローネ(patrone[独]、film cartridge)入りのフィルムは装填の際に巻き取り側に送り込まなければなりません。
この装填作業が機械に不慣れな人やご婦人にとってかなりのアレルギーを持たせる所作であることを知ったフィルムメーカ(イーストマン・コダック社)は、この煩わしさから開放すべく、1963年にカートリッジ式のフィルムを開発しインスタマチックカメラとして発売しました。
このカートリッジは35mm巾のフィルムを使用し、片方だけに約26mm間隔のパーフォレーションが施されています。
撮影画面の大きさは26mm x 26mm ですから、一画面1パーフォレーションということになります。
このカートリッジは12枚撮りもしくは20枚撮りの2種類あって、操作が簡単なことから全世界に爆発的な売れ行きを示したそうです。
わたしは残念ながらこの126タイプのフィルムの存在もカメラも知りません。
 
●110サイズ 110サイズのカメラは1972年に発売され、1980年まで売れました。
126タイプの縮小版とも言えるもので、16mm巾のフィルムを使ったカートリッジでパーフォレーションは片側だけに設けられていました。
画面の大きさは13mm x 17mm でした。
撮影枚数も126タイプと同じで、12枚撮りと20枚撮りの2種類ありました。
「ワンテン」と呼ばれ親しまれたこのカメラは、ポケットにすんなり入る大きさと簡単な操作で大衆受けを狙ったもので、ある程度市場に浸透していきました。
しかし、結果的には撤退を余儀なくされます。
失敗の原因は、プリントされた画質があまり芳しくなく、このカメラが販売されたと同時期に、自動焦点、自動露出、自動巻き上げのカメラ(代表カメラはキヤノン・オートボーイ)が急速に台頭してきて、このマーケットを食ってしまったのです。
私も何度かこの110サイズフィルムカメラの被写体に収まり、プリントをいただきましたが、粒状が荒くコントラストのつかない画質に「簡便なものはこんなものかな」と思ったものでした。
 
●ディスクフィルム(Disc Film) ディスクフィルムは1982年にコダックが開発した2.5インチ径の薄い円板状のフィルムです。
フィルムがディスク形の花びら状になっていて、この花びらに15枚ネガフィルムが配列され回転しながら15枚の撮影ができるものでした。
薄いフィルムカートリッジを使うためカメラをコンパクトにできました。持ち運びに便利になることが開発の狙いとしていたようです。
また、現像処理の合理化が図られるメリットもありました。
しかし、この規格のフィルムも、日の目を見ずに撤退を余儀なくされました。
理由は、110サイズの所でも述べましたが135タイプのカメラの小型化と自動化によって画質の良い写真が手軽にできるようになったからです。
ディスクフィルムのイメージサイズは、11mm x 8mmしかありませんでした。
また1990年代前半から市販化された紙パック形式の使い捨てカメラ「写るんです」(富士写真フィルム)の出現は、小型カメラ業界を一変するに足る出来事でした。
使い勝手のよいコンセプトとそこそこに写る良好な画質が受け、小型カメラ市場を席巻していきました。
ディスクフィルムは、1998年に製造を中止しました。
 
 
●APS  (2012.02.23追記)
APSは、Advanced Photo Systemの略のフィルムフォーマット規格です。
こうした新しい規格は、すべて米国のコダックで作られますが、これもコダックが提唱し、イーストマンコダック、富士写真フイルム、キヤノン、ミノルタ、ニコン各社が共同開発して、1995年4月からサービスを開始しました。
APSは何が新しいかというと、まず従来から一般的に使われている35mmフィルムに代わって、約60%巾の狭くなった24mmフィルム(IX240)使っていることです。
撮影枚数は、15枚、25枚、40枚の3種類がありました。
フィルムが高画質になったことが手伝って、アマチュアユーザがプリントサイズをそれほど大きくしないことを見込んで装置のコンパクト化を狙い(材料を抑えて同じ値段で売るという、実質的な値上げという穿った見方もある?)サイズを小さくしたようです。
記録媒体のフィルムも従来の35ミリフィルムに代わる新しいフィルムを採用し、画面サイズが30.7×16.7ミリとコンパクトで、日付やタイトルなどの情報を磁気情報という形で撮影と同時にフィルムに記録できます。
フィルムはプラスチックマガジンに収納されていて、フィルムカートリッジをカメラに入れるだけの簡単確実な設計になっています。
このカートリッジフィルムは、従来の35ミリカメラとの互換性はないので、間違って購入してもAPS用のカメラを持っていないと使用することができません。
APSのシステムには、画面の大きさがCタイプ、Hタイプ、Pタイプあります。
撮影は、画面サイズ30.7×16.7mm(16:9)で撮影し、プリント時に以下のようなサイズを指定してプリントを仕上げてもらいます。
 
Cタイプ: 89×127mm (縦横比/2:3)
      従来の35mmフィルムサイズ(ライカサイズ)と縦横比が同じ
Hタイプ:89×158mm (縦横比/9:16)
ハイグレード Pタイプ:89×254mm (縦横比/1:3) パノラマ  
 
フィルムサイズは本来Hタイプであるので、画質はHタイプが一番良好です。
後のサイズは撮影されたフィルム画像の横を切り落としたり上下をトリミングして引き延ばしてプリントするため、必然的に画質が落ちます。
APSにはもう一つ大きな機能が追加されています。
それはフィルムに透明な磁気層があって、ここに撮影データやコメントを記録していることです(これをIX情報といいます)。
この情報は後でコンピュータで追加情報を打ち込んだり、追加記録ができるようになっていてフィルムの管理が簡単にできるようになります。
期待をもって登場したIX240フィルム(APS規格)はデジタルカメラの興隆に伴い販路の場を失って販売が思うように行かず、2011年をもって製造を終了しました。
16年の歴史ということになります。
     
 
【インスタント写真】(Instant Film)
エドウィン ランド1948年、第二次世界大戦の3年後、ポラロイド社がインスタント写真とカメラを発明しました。
発明したのはエドウィン・ランド博士(Edwin H. Land、1909 - 1991)です。
博士はハーバード大学を中退しています。
学生時代に偏光現象に傾倒し、中退後、ニューヨーク公立図書館にこもり猛烈な独学自習のすえ偏光に関係のある文献を片っ端から読破し「ポラロイド」偏光フィルタを商品化します。
そんな中で、インスタントカメラは自分の三歳になるお嬢さんの写真を写した直後に「いま撮った写真をすぐ見せて」とせがまれたことからこれを発想し企業化したそうです。
(一説にはポラロイド偏光フィルターのビジネスが思わしくなく次のビジネスを思考していた矢先だったとも言われています。)
当時、このフィルムカメラは撮影して1分で写真ができるので「1分間写真」と呼ばれていました。
ポラロイド写真は最初セピア調のモノクロームでしたが、1950年に一般の写真と同様の黒調になり1960年にはカラーを公表して1963年に発売を開始します。
1972年にはこれまでの「ピールアパート式」(ネガとポジペーパーを剥がす方式)に代えて、SX-70方式を開発します。1975年にはこの方式によるカラーを発売しました。
イーストマン・コダック社も1976年に同様のフィルムとカメラを発売します。
これによりポラロイドという商品名から「インスタントフィルム」という言葉が一般名詞として使われるようになります。
富士写真も1981年に同様のフィルムを発売します。
インスタントフィルムを巡ってはポラロイド社とコダック社の間でパテント問題が起き、1976年に訴訟が起こされ激しい裁判攻防の末1990年にポラロイド社が勝訴し、コダック社は1200億円の賠償とこの分野からの撤退を余儀無くされました。
富士写真は日本に対してはこうしたパテント申請をしていなかったポラロイド社の法的効力をかいくぐって、日本に限っての販売を行っています。
 
▲日本での不人気
インスタント写真は、米国はいざ知らず、日本においては家庭にあまねく浸透したとは言い難い製品でした。
アメリカでは全家庭の半数がポラロイドカメラを持っていたのに、日本ではなぜアメリカほど普及しなかったのでしょう。
私の個人的な思いとして以下の理由によるものと考えます。
 
1. (日本での)ポラロイドはフィルムが高かった。
   1970年代〜2000年代、1枚150円から200円した。
   1500円から2000円を出して1パックを買っても10枚程度しか撮れない。
2. 焼き増しができず、集合写真などの利用価値が低かった。引き延ばしもできなかった。
3. 135タイプのフィルムのDPE(現像、プリント、焼き増し)のコストが年々下がって
  1時間サービスも出回るようになり、ポラロイドの価値が下がった。
4. インスタントフィルムの画質が向上するのにかなりの時間がかかった。
 
これらのことが日本でそれほど普及しなかった理由と思っています。
しかしながら、インスタント写真は企業や公共の研究所などの試験・研究機関にはかなり広く行き渡り利用されていました。
しかし、1995年以降、デジカメが急速に普及することによって、インスタントフィルムの需要が激減してしまいます。
 
 
▲ チェキ(Cheki、Instax mini)(2020.04.14追記)
1998年頃から富士写真フィルムで新しいタイプのインスタントフィルム「チェキ」が発売されています。
チェキは俗称で正式名はInstax mini(インスタックス ミニ)です。
写真サイズは小さいものの若者の間で受け入れられて良好な販売をしているとの事です。(2004年までの話。)(2020年現在も販売は続けてられて堅調な販売をしています。)
このインスタントフィルムはデジタルカメラの台頭で使命が終わったと思っていたのですが、デジタルカメラで撮った画像をこのインスタントフィルムを利用してプリンタ用紙として使う需要を掘り起こしました。
このプリンタのことをチェキプリンタと呼んでいるそうです。
パソコンを使わずにプリントできるので、簡単に取り扱いができることから女子高生の間で人気があるようです。
我々計測の分野ではあまりみかけません。
 
▲ インスタントフィルム産業
インスタントフィルムは現像を必要とする銀塩フィルムとは異なった性質を持っていたので、市場の一部を確保することができましたが主流とはなりませんでした。
また、1995年頃より市場に投入され始めたデジタルカメラの興隆によって一気にその市場性が奪われてしまいました。
2001年10月、米国Polaroid社は会社更生法の適用を受けるに至っています。
デジタルカメラの技術革新によって、インスタントフィルムカメラが担っていた仕事をすべて請け負ってしまったのです。
インスタントカメラがデジタルカメラに何故駆逐されたのかというと、以下の理由が挙げられると思います。
 
1. 2000年当時、1,000x1,000画素クラスのデジタルカメラが3万円台で入手できた。
  2. インターネットの普及と相まって、家庭にコンピュータが入り込んで デジタルカメラによる
  デジタル画像が簡単に取り込めたり、保管、読み出しができるようになった。
  3. さらに、インクジェットプリンタメーカが写真画質以上の印刷ができるプリンタ
    が3万円台で供給するようになった。      
 
 
 
【映画用フィルム】(2020.04.06)(2020.05.09)(2023.10.23追記)  
 
●35mmフィルム 映画の第一歩を踏み出したのは、米国トーマス・アルバ・エジソン(Thomas Alva Edison: 1847 - 1931)と彼の研究所の主任研究員ウィリアム・ケネディ・ディクソン(William Kennedy Laurie Dickson、1860 - 1935)と言われています。
彼らは、1894年に「キネトグラフ」(Kinetograph)と呼ばれる撮影機と「キネトスコープ(Kinetoscope)」と呼ばれる映写機を発明しています。
これに使用するフィルムがセルロイドベースに乳剤を塗布したロールフィルムで、パーフォレーションはほぼ現在と同じサイズのものがさん孔されていました。(パーフォレーションはフィルム供給のKodakではなくて、使用する側のエジソンで行われていたようです。)
ムービー用の長尺フィルムが作られたのは、ジョージ・イーストマンが1885年にロールフィルムを発明してから9年後のことです。
 
エジソン研究所のディクソンは、Kinetoscopeを発表する5年前、1889年にイーストマン社にロールフィルムの試作を出していました。
そのフィルム巾が、1 3/8インチ(34.925mm)で、長さが50ft(15.2m)だったそうです。
この規格はコダックに70mm巾(2 3/4インチ = 69.85mm)のフィルムがあったので、これを半分にして両サイドにフィルムを送るパーフォレーション(孔)を開けました。
これ以降、映画フィルムの基本的な巾が35mmと決められ、ライツ社のオスカー・バルナックがこのフィルム流用してライカを開発して後、小型静止画カメラ(ライカサイズ)でも標準使用されるようになりました。
 
■ メートルフィルムとインチフィルム
フィルム巾が35mmと切りのよい数値になったのは、メートル法の発明国であるフランスの影響が強かったようです。
米国で作られた35mmフィルム巾は、最初1- 3/8インチ±0.001インチ(34.925mm±0.025mm)となっていて、これが国際規格になった時は、34.975mm±0.025mmとなりました。フィルム幅が0.05mm大きくなりました。
35.00mm巾を上限として、0.05mmまで小さい数値を許容しました。
このフィルム巾の規格を読み解くと、インチサイズの許容差±0.001インチの上限である34.950mmとして、メトリック数値の下限の34.950mmとして合意をみた感じを受けます。
互いに歩み寄ったと言う印象です。
フランスは写真技術の本家であり、動画も熱心に研究していました。
現代の映画館スタイルによる(暗幕で覆った小屋に人を集めて映写機で動画を上映した)映画産業は、フランスで始まりました。(アメリカではありません。)
新大陸のジョージ・イーストマンとエジソンは、フランスで始まった映画を横目で睨みながら競争力のある映画カメラと映写機、映写小屋を構築して一大産業にしようとしていました。
映画の父はフランスのリュミエール兄弟と言われています。
彼らは、最初、乳剤を塗布する下地に紙を使っていました。
パーフォレーションも1画面1孔でした。
エジソンのキネトスコープを見てこれを参考にして(特許に触れないように)、自分たちの映画カメラと映写機を作ります。
わずか1年後です。
フィルムの規格が1909年に国際規格として決められた時、35mmフィルム巾となったようです。
フィルムの規格の歴史を紐解くと、「映画フィルムの規定作りに、インチサイズの国(米国・英国)とメトリックサイズの国(仏国、独国)双方が熾烈な主張をして、その結果、妥協の産物で出来上がった」と記しています。
フィルム巾はメトリック(フランス)が先導し、パーフォレーションのピッチサイズとパーフォレーションの穴に関してはインチサイズ国(米国)の主張が通りました。
1900年代前半、フィルムの寸法規格に多くの論議がなされて、寸法規格が国際的に決められました。
米国映画産業の人達は、世界が決めた規格を中々取り入れず、彼らが整備してきた1900年代初めからの映写機、プリンターを採用し続け、コダックへのフィルム注文も初期の寸法で注文していました。
世界規格に改めると、また新たに映画機材を新しくしなければなりませんでした。
 
 
■ 35mmフィルムを使ったイメージサイズ
いくつかあるロールフィルムの中で、35mmフィルム巾が一番生産されてきたものだと思います。
このフィルムサイズは、コンシューマ用のカメラ(Nikon一眼レフカメラなど)に使われましたし、映画上映用の多くのカメラが35mmフィルムを使っていました。
右図が35mm巾のフィルムのイメージフォーマットです。
35mm巾と両目4パーフォレーションという縛りはあるものの、イメージフォーマットは比較的自由に決められているのがわかります。
エジソン、ディクソン、リュミエール兄弟が始めた1890年代のイメージサイズは0.98インチ x 0.735インチでしたが、音声が入る1930年代ではイメージサイズは片方に寄って小さくなりました。
計測用カメラは、縦横比3:4で高さを規格いっぱいに取っています。
ライカサイズのカメラは横にして8パーフォレーションの3:4の画面となっています。
 
 
■ フィルムの扱い
私は、長年映画業界の片隅でフィルムの匂いを少しばかり嗅いで生きてきましたので、フィルムに対するカメラマンの神経の使い方が尋常でないことを知っています。
映画を作るカメラマンや監督にとって、フィルムは彼らの全生命がかかっています。
クランクインが決まったら撮影用の映画フィルムを一気に注文します。
3時間程度の撮影となると16,000ft(フィート)分のフィルムが必要です。
400ftフィルムで40缶ほどです(およそ320万円 - 2000年時点)。これをフィルム業者に一括で注文します。
一括で注文するのは、製造ロットの違いで乳剤の調合が変わり、色が変わるのを嫌うからです。
ロットで購入したフィルムは、決められた温度・湿度管理下で保管されます。
そして高価な撮影セットや照明装置、俳優さんを揃えて取り直しのきかない撮影に入ります。
彼らは撮影時、1秒24コマのフィルムを送るのに全神経を集中させます。
フィルムの画面に傷が入らないだろうかとか、カメラはスムーズに回ってくれるだろうかとか、色バランスはロール毎に変わっていないだろうかとか、撮影現場は恐ろしいほどの緊張が走ります。
それに比べれば、ビデオ撮影はフィルム代がかからないだけ、また、撮影後結果がすぐわかるので緊張感は薄れるでしょう。
フィムルで映画を撮るというのは、スタッフや俳優間の信頼おける共同作業の証しとも言えましょう。
テレビドラマで、最後までフィルム撮影を行っていたのは、フジテレビの「鬼平犯科帳」(主演:二代目中村吉右衛門(1944 - 2021)、最終集録2016年12月)です。
ですから、フィルムを供給するフィルムメーカもフィルムの製造管理や寸法精度についてかなりの神経を使っています。
(2023年6月、故中村吉右衛門の後を継いで甥の松本幸四郎が新たに鬼平犯科帳の撮影に入ったという情報を耳にしました。新作が従来通り銀塩フィルムを使ったカメラ撮影であるかどうかはわかりません - 2023.10.21記。)
 
 
■ パーフォレーション(perforation、穿孔)の規格化
パーフォレーション(フィルムを送る孔)の寸法精度は極めて厳しく規格化されています。
パーフォレーションの孔あけ精度が0.1mm狂っていたらどうでしょう。
18mm x 24mm (3/4インチ x 1インチ)のシネサイズの画面を6m x 16mのスクリーンに映す倍率は、縦方向で333倍です。
0.1mmのガタは、スクリーン上に33cmの揺れとなって投影されます。
20m離れた観客はこの揺れを0.47度(両ブレで0.94度)でとらえます。
人間の目は、1/2000度程度の分解能を持ちますから、6mのスクリーン上では3mmの振れを認めることができます。
つまり、330mmの揺れは人間の検出限界の110倍の大きな揺れとなるので不快に映ります。
この揺れをスクリーン上で3mm以内に抑えるには、パーフォレーションの精度を画像の18mmの1/2000、つまり0.01mm程度の精度に抑えないといけないことになります。
このような理由から、フィルムにはかなりの寸法精度、孔あけ精度が要求されているのです。
そのような背景から、1900年代初めに米国シカゴで起業したベル・ハウエル社は、この精度に耐えられるさん孔機(パーフォレータ)、プリンタ、カメラを設計製作するにいたります。
 
フィルムのパーフォレーションは、フィルム製造会社がさん孔して消費者に届けるものとばかり思っていましたが、いろいろな資料を読んでいくと、初期のロールフィルムは穴あけがされていなくてカメラを回すユーザが自分たちで穴開けをしていたことがわかりました。
フランスのリュミエール兄弟の作った映画カメラは、1画面1穴(両サイド1穴で合計2欠)でしたし、エジソン研究所を離れて別会社を作ったDicksonのBiographカメラは、撮影時にカメラ内でパーフォレーションの穴開けを行う構造としていました。
エジソンの特許を避けるためです。
こうした中で、シカゴのBell & Howell社が、それまで不揃いで規格のとれないフィルムのパーフォレーションに一石を投じ、精密な孔開け機(Peerforator)を製作し販売を始めました(1909年)。
孔開けされたフィルムに適合したカメラ(Bell & Howell 2709)も1912年に製作します。
このパーフォレーション寸法とパーフォレータが秀逸であったため、フィルムメーカーのKodakも採用を決め、国際規格となっていきました。
 
右図のパーフォレーションは、1934年、映画技術者協会(SMPE = Society of Motion Picture Engineer, 1916年設立。後のSMPTE = Society of Motion Picture and Terevision Engineer)で決められた規格です。
SMPEは、パーフォレーションの形状を2つ認め、また、パーフォレーション間距離を2種類認めました。
2種類のパーフォレーションは、BH目とKS目で、BS目はBell & Howell社が採用していたもので、KS目はGeorge Eastman(Kodak)社が採用したものです。
パーフォレーションピッチは、ロングピッチとショートピッチがあり、映画初期のものがロングピッチで、後年になってショートピッチが採用されました。
これら微妙な違いが何故収束せずに規格制定されたかと言うと、利権と技術要素が絡まっていたようです。
フィルムのパーフォレーションは、最初の映画にエジソン(と助手のDickson)が発案し(特許を取得します)、丸穴(φ0.110インチ = 2.794mm)、そして孔間距離0.187インチ(= 4.750mm)で始まりました。
丸穴の走行性能(と止まり精度)が芳しくないので、掻き落とし爪(pull down claw)やフィルム止めピン(registered pin)がしっかりホールドできるように走行方向の上下を平にしました。
これがBH目と呼ばれるものです。
この孔形状は、1909年ベルハウエル社がフィルムさん孔機(Perforator)で採用し、フィルム会社のKodakが採用したことから米国で業界標準となり世界規格までになりました。
その後20年程度を経て、KodakがKS目を採用し始めました。
BS目は、スプロケットやレジストレーションピンをしっかりとホールドする利点はあったものの、しっかりしすぎて長い間何回も映写機を通してフィルムを使うとパーフォレーションが痛む問題が起きていました。
また、パーフォレーションの寸法がしっかりしているが故にスプロケットからフィルムが離れる際の音が大きくて、フィルムにもダメージを与えることがわかってきました。
そこでKodak社はパーフォレーションに亀裂が入らないコーナーを丸める工夫と走行方向の巾をやや緩めの大きいもの(KS目)にしました。
その差は0.005インチ( = 0.127mm)でした。
また、セルロイドベースのフィルムは、現像後や経年変化でフィルムが縮むことが認められていて、ネガフィルムとプリントフィルムの乳剤面を合わせて連続プリンターに通すと、スプロケット曲率によって両者の曲がり半径に差ができフィルム同士が擦り合う問題が生じてきました。
その問題を修正するため、オリジナルフィルム(撮影用ネガフィルム)には従来のBH目で0.187インチ間隔(ロングピッチ)のフィルムを使い、プリンタ用及びリバーサルフィルムにはKS目で0.186インチ間隔(ショートピッチ)のフィルムが使われるようになりました。
これが1934年に制定されて現在に至っています。
 
■ フィルム容量
35mm映画フィルムは、100ft(30.5m)容量、200ft(61.0m)容量、400ft(122m)容量、1,000ft(305m)容量、2,000ft(610m)容量が一般的です。
映画撮影では、100ftもしくは400ft容量のフィルムが一般的で、映画館での映写では2,000ftが一般的でした。
映画上映には2000ft容量を6缶(約2時間)使用していました。
映画フィルムの場合、1枚の映像をコマと呼び、1ftあたり16コマの撮影(映画の初期、無声映画での撮影コマ速度)を行います。
(音声を同時に記録するトーキーの時代になって、16コマ/秒では音質が悪いので24コマ/秒になりました。音声はフィルム側部に光学的に記録していました。)
1コマには、4つのパーフォレーション分のスペースが当てられたため、パーフォレーション間隔は、1ft/(16コマ x 4パーフォレーション/コマ) = 4.7625mm(実際の規格は4.750mm)/パーフォレーションとなります。
1ftのフィルムで16コマ撮影ができるということは、当時、カメラの撮影速度が16コマ/秒であったので、1秒1フィートと言うわかりやすい尺数になりました。
こうしてみると、100ftのフィルムは100秒(1分40秒)、400ftは400秒(6分40秒)、1000ftは16分40秒の撮影ができました。
現在では1秒間に24コマの映写が規格となっていますから、上記のフィルムでは、100ftで1分7秒、400ftでは4分27秒、1000ftでは11分7秒という計算になります。
2時間の映画上映では10,800フィートのフィルムが必要になります。
撮影時にはその1.5倍くらいのフィルムが必要でしょうから、16,000フィートのフィルムを確保しておかなければなりません。
フィルムの価格を100フィート20,000円程度(2000年当時の価格)とすると、3,200,000円のフィルム代が必要となります。
 
■ 映画カメラ
映画産業は、先にも述べたように、1894年米国東海岸のエジソン研究所のエジソンとその技師Dicksonが、New York州ロチェスターにあるEastman Kodak社に35mm巾ロールフィルムを発注したことから始まります。
今日のスタイルの映画館と映画産業は、一年後の1895年、フランスのリヨンのリュミエール兄弟(Auguste Marie Louis Lumière:1862 - 1954、Louis Jean Lumière:1864 - 1948)が作った映画カメラと映写機、そして彼らの映画館スタイルが最初と言われています。
上図の装置が、エジソン(と彼の研究所の技師Dickson)によって発明された最初の映画カメラです。
装置の大きさは、オフィス机に乗るくらいあり、重さは100kgを越えていました。
持ち運びは到底無理な代物で、もっぱらスタジオ固定での撮影となっていたようです。
Kinetographは、連続した画像が撮影できるようにロールフィルムを使い、これを横置きにして電動モーター(直流)で駆動させています。
電源はバッテリーを用いました。
DicksonがKodakに発注したフィルムは、50ft長(15.2m)で、上のKinetographの写真を見るとその程度の大きさのフィルムマガジンが収まっていることがわかります。
映画カメラに電気モーターを使ったのはエジソンならではと思わせます。(エジソンは発電機を作り電灯を発明したのですから、商業ベースでの電気の父です。)
対物レンズの前には回転円板シャッターが組み込まれていて、フィルムを送る時に円板シャッターの黒味が被さって露光を停止し、フィルム送りが停止した時点で円板シャッターの開口部が開いて露光されます。
この一連の動きは、間欠掻き落とし駆動(intermittent movement)と呼ばれるもので、映画撮影と映写の基本動作となりました。
エジソンの撮影機は、40コマ/秒から50コマ/秒で撮影したと言われています。
その理由は、その程度にしないと円板シャッターでのフリッカーが起きて見るに堪えられなかったからだそうです。
リュミエール兄弟は、その対策として映写時には円板シャッターを1画面に3回切ってフリッカーを抑えたため、16コマ/秒の撮影が可能となったそうです。
消費枚数が少ない方が撮影時間が長く取れ費用も安く上がります。
実際の所、映画カメラが電動化されるのはずっと後のことで、初期の映画カメラ(1920年代まで)は手動クランクを使って手回しでフィルムを送って動画撮影を行っていました。
当時は、電気が潤沢になかったし、水道水の蛇口のように電気コンセントにプラグを指して簡単に電気を取るわけにはいかなかったのです。
エジソン社では、カメラ(Kinetograph)で撮影したフィルムを上に示すような映写機(Kinetoscope)にかけて、覗き込むように動画を見る装置を開発しました。
1894年のことです。
Kinetoscope(キネトスコープ)は見世物小屋(キネトスコープ・パーラー)に何台も置かれ、観客を呼び込んで動画を見せる興業に使われました。
複数台のキネトスコープにはそれぞれに15秒ほどの短編動画が装てんされていて、客はコイン(25セント硬貨)を入れて覗き窓に顔を近づけて動画を見ました。
キネトスコープはエンドレスのフィルムを使って連続映写を行っていました。
現在の映写機のような間欠コマ送りではありません。
キネトスコープは連続フィルム送りによる映写で、映像がレンズと正しい位置に来たときにそのタイミングに合わせて回転円板シャッタのスリットが開いて、ストロボ効果のように映写をしていました。
その映写方式は、Zoetrope(ゾートロープ、回転のぞき絵)に似ていて、そこからヒントを得ているように感じます。
 
 
● リュミエール兄弟
エジソンの映画の興行を見たフランス・リヨンのリュミエール兄弟は、1年後の1895年、自分たちで撮影機を作ります。
彼らの家はフランスのリヨンにあって、写真乾板と印画紙、義手・義足の工場を営んでいて、リュミエール兄弟も工場を引き継いでいました。
兄ルイ・リュミエール34才の時、父アントワーヌがリヨンに持ち帰ったエジソンの「キネトスコープ」を見て、彼らが構想していた上映式動画とは違うことに違和感を覚えます。
エジソンの発明した撮影機(Kinetograph)と映写機(Kinetoscope)は、大きな問題があると彼らは見抜きました。
リュミエール兄弟が作った撮影機は、ネガフィルムからポジフィルムを作るプリンタとフィルムを映写する映写機の機能も兼ね備えていました。
映写機の背後に高輝度のランプを配置して、映像を映し出す部屋は暗くしつらえて、映写機の前方には大きなスクリーンを張って観客を一同に集めてフィルムを上映しました。
リュミエールの兄弟の興業をシネマトグラフ(Cinématographe)と呼んだので、以後映画はシネマ(シネマトグラフィー)と呼ばれるようになりました。
以後主流になる映画館の原形を作ったので、彼らは「映画の父」と呼ばれています。
 
彼らのカメラはエジソン・ディクソンの開発したキネトグラフに比べるてとてもコンパクトで軽く、しかも電気のいらない手回し式の木製箱カメラでした。
フィルムは、エジソンの使っていたものと同じもので、透明セルロイド35mm巾ロールフィルムで、イメージは18mm x 24mmサイズ、フィルムを送るパーフォレーションは、丸穴で両サイドに一つづつ計2ヶとし、1秒間に16コマの撮影速度で50秒間(800枚)の撮影を行いました。
フィルムの長さは50ft(15.2m)となります。
(資料を見ると、フィルムの長さは17メートル(55フィート)で、上映は46秒と書かれてあるのを多く見かけます。フィルム装てん部分長を考慮した値かもしれません。)
彼らの映画館で最初に上映されたのは、「工場の出口(Workers Leaving the Lumière Factory)」という46秒の白黒無声短編映画でした。
この映画は、リュミエールが所有する工場での仕事を終えた社員が退社する様子を社長自らが撮影したものだそうで、一般の人達の情景です。
フランスの人達は、随分とお洒落な服装で日常を送っていたのだなと思わせます。
この短編映画を1895年、パリのグラン・カフェ地階のサロン・ナンディアンにて有料で公開しました。
リュミエール兄弟は、自ら開発したカメラを担いで全世界を巡り、興味ある風景や人々を撮影してそれを劇場で公開しました(日本の風景、居合いの情景、京都の舞妓さんもあります)。
これらの作品は、46秒のフィルム(50フィート)に収めていましたから、小型コンパクトな手回しカメラを携えて全世界を回ったものと思われます。
 
 
● パテ兄弟
リュミエール兄弟はカメラと映画装置を1902年に同国のパテ兄弟商会(Pathè Frères)に売却しました。
パテ社は1896年に4人の兄弟で蓄音機(フォノグラフレコード)を販売する会社として出発し、映画業界に進出してからは映画スタジオ、映画館、カメラ、映写機、消耗品一切を手がけ、第一次世界大戦(1914 - 1918)直前にはヨーロッパ映画産業の半分以上のシェアを占めていたと言われています。
そのパテ社は第一次世界大戦が終了したあたりから業績が悪化したため、映画製作関連部門を売却して劇場や配給に専念するようになります。
リュミエールカメラ以後のパテカメラは右に示すようなもので、パテスタジオと呼ばれました。
カメラの外観は木製で、その周りを革張りし400ft(フィート)マガジンを装着して撮影時間を8倍に伸ばしました。
撮影は手動クランクによるもので、サイレント映画でした。
カメラの横にはファインダーが付けられています。
このカメラを使って1,700本の作品が作られたと言われていますから、1900年から1920年代まで主流のカメラだったと言えます。
 
1890年代から1900年代初めにかけて、米国エジソン社が手がけた映画カメラと映画館はどのようになっていたのでしょう。
フランス・パテ社の映画カメラは、米国東海岸で使われていた資料が多く、エジソン社はカメラ製造に関してはあまり力を入れていなかったように感じます。
反面、大型映写装置を作って映画館をつくり、1900年代前半は相当な勢いで映画産業が興隆して行ったようです。
エジソン社が最初に作ったKinetoscopeは、一人がその映写機を覗き込みコインを投入して見る形式でした。
これでは一度にたくさんの観客をさばけません。
リュミエール兄弟の映画館方式を知ったエジソンは、1896年、Kinetoscopeに代えて劇場でたくさんの観客が見られる映写機Vitascopeを開発します。
エジソンの当初のビジネスプランは、KinetographとKinetoscopeを製造販売して儲ける予定でしたが、上映するフィルムを制作して上映館に渡しロイヤリティを得た方がはるかに利益が出るとして、映画制作にビジネスの梶を切り、カメラや映写機の開発は続けるものの製造には力を入れなくなり、パテントだけに固執するようになりました。
彼は、1908年にパテントを管理する会社Motion Picture Patents Company社(MPPC)を設立して、映写機やカメラを作る大小の会社にロイヤリティを取り立てるようにしました。
それが反トラスト法に抵触するとして大きな裁判となり、その結果、敗訴となり1918年エジソンは映画業界から撤退をすることになりました。
 
 
● Bell&Howell 2709 (2020.04.08)(2023.10.23)
米国では、1912年にBell&Howell社からBell & Howell2709というカメラが作られ、1960年頃まで使われました。
それまでは、先に述べたフランスのパテカメラが使われていました。
Bell & Howell2709の出現により、米国の映画産業は米国カメラに置き換わるようになりました。
Bell & Howell2709は、ハウジングをアルミ鋳鉄製にしたのが特筆でした。
これにより堅牢で信頼性のある撮影ができました。
レンズマガジン部は2室式(未露光フィルムを収納する部屋と撮影済フィルムを巻き取る部屋)で、それぞれに丸形のねじ込み蓋を設けて個別に蓋を開けられるようにしました。
カメラ内部には、32歯の大きなスプロケットを設けて手回しクランクハンドルと直結させ、ハンドル1回転で8コマ[32(歯/回転)/4(パーフォレーション/コマ) = 8コマ/回転]の撮影を行いました。
当時の映画は1秒間に16コマの撮影なので、カメラマンは1秒間に2回カメラハンドルを正確に回したことになります。
 
フィルムのパーフォレーションは、1フィート(30.48cm)長に64孔( = 16コマ x 4パーフォレーション)が空けられていたので、1秒間に1フィートのフィルム送りとなります。
このカメラでは、フィルムを正確に掻き落とす爪(claw)に加えて、フィルム送りが終わった後にフィルム送りを停止させて、なおかつフィルムを正しい位置に固定するための固定ピン(fexed pin, registration pin)が入る工夫がなされていました(USパテント:1,038,586  Set.17,1912)。
固定ピンはガイドプレートに固定されていて、フィルムを抑えるプレッシャープレートが露光時にフィルムを押しつけてガイドピンでフィルムを固定させました。
フィルム送りの際は、プレッシャープレートが緩んでフィルムを送りやすくしていました。
固定ピンで撮影位置を決められたロールフィルム上の映像は、1枚1枚しっかりと画像位置が固定されるため、撮影による画ブレを極限まで抑えることができました。
プレッシャープレートは間欠運動で圧接操作を行っているので、撮影時の操作音はバタバタ音を伴う大きいものとなりました。
これがトーキー映画(音声録音)の時代になると大きな問題となりました。
 
カメラレンズは、広角から望遠まで4種類のレンズが簡単に代えられるように4連リボルバー式ターレットになっていて、レンズの前にはレンズフードとフィルターが挿入できるマットボックスが装備されていました。
レンズの画角調整とフォーカス合わせは次のように行っていました。
カメラレンズを装着する部位は4連ターレットになっていて、4つのレンズが装着でき90度ずつ回転できるようになっています。
フォーカスと画角調整を行うには、4つのレンズのうちの撮影に該当するレンズを撮影する位置から180度反対に持って来ます。
その位置にはフィルムはないけれども、フォーカス用のルーペが配置されています。
そこで詳細な画角とフォーカス合わせを行って、再度180度ターレットを回してレンズを戻します。
このまま撮影に入ると180度レンズを回した位置分だけパララックスがでてしまうので、カメラ全体をその分だけ光軸方向にずらす機構がカメラの底部と三脚の間に設けられていました。
フォーカスと画角の調整は結構面倒なので頻繁にカメラ位置を変えることはできませんでした。
カメラマン位置から見てカメラの左部にはファインダーが付けられているので、撮影中のおおよその枠取り(画角)は確認できるようになっていました。
 
この時代は、優秀なズームレンズはありませんでした。
レンズコーティング技術もなかったので、レンズ枚数の多いズームレンズは使用に耐えなかったのです。
それにレンズ設計も複雑なので、コンピュータの発達していなかった1900年初頭はズームレンズは望むべくもありませんでした。
このカメラは、サイレント映画時代に大いに受け入れられ、チャールズ・チャップリン主演のサイレント映画に使われました。
 
 
■ Bell & Howell社 (2020.04.08)(2020.04.19)(2023.10.23追記)
1900年代初頭のシカゴは、映画産業中心の一つとなっていました。
そのシカゴにベルハウエル社を興す2人が登場します。
Donald Joseph Bell(1869 - 1934)は映画館の映写技師として才能を開花させ、スライド映写機やKinodrome(展示ホールやショーダンスで使う映写機材)の改良を手がけていました。
一緒に会社を興すAlbert Summers Howell(1879 - 1951)とは映写機の部品製造会社で出会うことになります。
ベルのほうがハウエルより10才年上で、両者とも技術者です。
ベルが映画全体を見渡せたのに対し、ハウエルは生粋の機械技術者で、メカニズムの設計と製作、改良の才能が極めつけだったということになります。
Howellはミシガン生まれであり、その後シカゴに移り映写機を製造・修理する工場で働き出します。
1906年にはKinodrome映写機の改良で最初の特許を取得しています。
ベルの映写技師としての才能とハウエルの機械技師としての天賦の才を互いに認め合った両者は、映画産業界で一旗揚げようと1907年に自分たちの会社を設立します。
会社設立時は映画関連機器の製造とリース、修理でした。
設立当初の仕事は映写機の修理が売上の半分以上を占めていましたが、10年の間に自身の機器を製作するようになります。
 
当時の映写機は発展途上の機械でもあったため、フィルム走行の安定性の問題と映写上のチラツキ(フリッカー)、そして機器の標準化の問題がありました。
当時は作られる映画機械にバラツキがあったのです。
彼らは、35mmフィルムを扱う動画機材に集中して規格を整備し標準化を図ります。
35mmフィルム機材以外には目もくれなかった感じを受けます。
彼らが集中したのは35mmフィルムのパーフォレーションを精度良くさん孔するPerforator(パーフォレーター、鑽孔機)と35mm映画カメラ、そしてネガフィルムから上映フィルムを焼き付けるプリンタでした。
この3つの機器の標準化を若きベルハウエル社が成し遂げていきました。
 
彼らが最初に35mmフィルム映画カメラを作ったのは1910年で、木箱と革張りのカメラで作られました。
これはフランスのパテ社のものと変わりません。
しかし木製・革張りのカメラが問題を起こします。
白アリと白カビによってカメラに損傷を与えてしまいました。
ユーザー(映画監督と女優夫婦、Martin and Osa Johnson)がカメラを携えてアフリカにロケ(映画の題名は「I love Adventure」)に行った時に、その問題が発生したのです。
そこでベルハウエル社は、カメラのハウジングをアルミダイキャストに代えました。
ここに金属製映画カメラが初めて完成しました。
1912年、このカメラはBell & Howell 2709と名付けられました。
金属ハウジングに代わったカメラは内部の駆動メカニズムも精緻となり、これまで作られた映画カメラの中で最も完成度の高いものとして評判になりました。
映画産業が西海岸に移っても彼らのカメラは評判で、1919年までにはハリウッドで使われるカメラのほとんどがBell & Howell 2709になりました。
Bell & Howell 2709カメラは相当に高価で、当時これを所有できたのは個人ではチャーリー・チャップリンのみで、後はすべてスタジオ(映画製作、配給会社)が所有したと言われています。
チャップリンはこのカメラに随分とご執心で、無声映画からトーキーの時代に変わっていく中でも個人所有のBell & Howell 2709を持ち続け、手回しハンドルによる映画撮影を続けていったと言われています。
このカメラで撮影した彼の作品には、「A Dog's Life(1918)」、「The Kid(1921)」、「The Gold Rush(1925)」、「City Lights(1931)」、「Modern Times(1936)」などがあります。
  
ベルハウエル社は2709カメラの他に携帯用に便利な16mmフィルム用カメラFilmo(フィルモ、1923年)と35mmフィルム用カメラEyemo(アイモ、1925年)を製造し、報道映画(Newsreel)やアマチュア向けに販売したほか、16mm巾フィルム用映写機と8mmフィルムカメラ及び映写機(1934年と1935年)も手がけました。
 
 
■ ハリウッド(1900年代前半〜)
米国の映画産業はイーストマンコダックやエジソン研究所、Bell & Howell社など、東海岸で芽生え発展しました。
今の私たちの感覚から見ると、映画産業の本山は西海岸のロスアンゼルスにあるハリウッドだと理解します。
米国の映画産業が東海岸から西海岸に移ったのは、1910年代です。
 
 
1908年、エジソンが映画の興行関連の特許を取得してMPPC(Motion Picture Patents Company) = Edison Trust(エジソントラスト)を設立し、自分たちの利害を守ろうとしていました。
つまり、MPPCに入らない業者に対しては使用に際して法外な使用料を要求したのです。
このやり方に反対した中小の映画産業業者は、ニュージャージーやニューヨーク、シカゴなどの東海岸から手の届かない西海岸に逃れて独立した映画産業を興しました。
併せて、MPPCの不当性を訴えて裁判を起こしました。
イーストマンコダックも最初はMPPCに加盟し独占供給契約を結んでいましたが、1911年にMPPC加盟しない団体にもフィルムを供給できるような契約に改められたため、それ以後、米国内で映画館が急増していったそうです。
MPPCは反トラストである、と裁判所の判断が下され、訴訟の末1917年に消滅しました。
 
西海岸には、自由がありました。
気候も温暖で、年中良く晴れるので映画撮影にはうってつけでした。
西海岸(ハリウッド)での映画産業を押し上げたのは、ユダヤ人でした。
ユダヤ人は、東海岸で迫害を受けていたので、新天地での新しいビジネスに非常に積極的で、映画スタジオを次々と設立して行きました。
英国やフランスも、そして映画関連業者もハリウッド進出には積極的だったと言われています。
MPPCの不合理な協定に強固に異を唱えたのは、ユダヤ人のウィリアム・フォックス(William Fox)でした。
彼は、1915年、ハリウッドにFox Film Corporation(後の20世紀フォックス)を立ち上げます。
また、ユニバーサル映画社(1912年)、パラマウント映画社(1916年)、ワーナー・ブラザーズ社(1923年)、コロンビア映画社(1924年)、MGMスタジオ(1924年)など現在も活躍しているハリウッドの映画会社はほとんどすべてユダヤ人による設立と経営でした。
 
 
● Mitchell(ミッチェル)(2020.04.08)(2020.04.19)(2023.10.23追記)
Bell & Howell 2709カメラの後に登場したのが、西海岸カルフォルニアで作られた、Mitchell(ミッチェル)カメラです。
このカメラは1920年代から1960年代にかけて米国映画産業で最も良く使われた35mmフィルム用カメラでした。
Mitchellカメラが登場する以前のBell & Howellカメラは、堅牢で信頼性が高く使い勝手は良いものの、フィルムを駆動する操作音が大きく(Clipper、クリッパー)、また、画角合わせやフォーカスも煩わしく、なおかつ、ファインダーが左右上下逆転の映像となっていました。
カメラマンにとってこの二つは不評でした。
ミッチェルカメラはこれらを解決し、かつ、正確無比のフィルム送り機構を持っていたため、映画カメラ史上不世出のメカニズムと言われ、数多くの支持を集めて行きました。
折からのトーキーの時代になって同時録音を迫られた撮影現場では、撮影音の少ないミッチェルカメラは願ってもないカメラだったに違いありません。
ミッチェルのフィルム駆動ムーブメントはミッチェルカメラ以後のMovicamやPanavisionカメラにも採用され今日に至っています。
  
 
■ Mitchell Camera Corporation (2020.04.08)(2020.04.19追記)
ッチェルカメラ社(Mitchell Camera Corporation)は、1919年にヘンリー・ボガー(Henry Boeger)とジョージ・アルフレッド・ミッチェル(George Alfred Mitchell: Feb. 1889 - Apr. 1980)の二人によって西海岸ロスアンゼルス(ハリウッド近郊)で設立され、1985年に買収の末消滅した会社です。
ジョージ・ミッチェルは兵役を終えた後の1911年(22才の時)にロスアンゼルスのFrese Optical Companyに機械技術者として入社し、映画業界に入ります。
当時のFrese光学社は、測量機器の運用・メンテナンスを主業務としていて、その他に、その地に興った映画産業用のカメラと映写機のメンテナンスも手がけるようになり、ミッチェルはその方面に才能を開花させていきます。
 
1911年当時は先に述べたMPPC(Motion Picture Patents Company、Edison Trust)の影響が強くて、西海岸といえどもMPPCに属していない会社には特許に抵触しない海外のカメラしか使えないため、Frese氏はミッチェルに命じてフランス・パテのカメラや英国のThe Williamsonカメラをコピーさせていました。
これがミッチェルが映画カメラに関わる最初の出来事だったと言われています。
彼は、これらのカメラを細部に至るまで正確にコピーして複製カメラを作ったと言われています。
ミッチェルは1916年(27才の時)にユニバーサル映画社に移り、映画カメラのメンテナンス要員として働き出します。
ユニバーサル社での仕事はミッチェルにとってとても魅力的なもので、多くのカメラマンと意見を交わしながら映画カメラの知見を深めていきました。
当時、ユニバーサル社はイタリヤ製のPrevost(プレボスト)カメラを使っていて、その他に少数ながらBell&Howellカメラを使っていました。
(おそらくBell&Howell2709カメラは高価だったと思われます。たくさんの映画作品でBell & Howellカメラを使えるのは限られた人達、つまり予算をたくさん持っている人達だけだったのだろうと思われます。)
 
こうしたカメラを維持管理して行く中で、John E. Leonardというカメラマンが自ら設計したカメラを見せにやってきました。
カメラ自体は完成度の高いものではありませんでしたが、Leonardのアイデアが盛り込まれたラックオーバー方式のファインダー機構はとても斬新でした。
ラックオーバー(rack-over)式のファインダーとは、カメラ本体をレンズプレートと分離できるようにして、ラックギア方式でカメラ本体の光軸を簡単に切り離してレンズ光軸をファインダーに切り替えるものです。
ラックピニオンでカメラ本体を光軸と平行に移動させてファインダーの光軸を合わせ、カメラレンズの視野とフォーカスをファインダーで確認できるものでした。
ラックオーバー式は、Bell & Howell 2709にもありましたが、カメラをまるごと平行に移動させるためカメラ位置が変わります。
また、フォーカスを行う際には、カメラ前面部の4連ターレットのレンズを180度回して、フィルム面の無い位置で内蔵ファインダー(ルーペ)を使ってフォーカスを合わせていました。
(撮影中はレンズを通した視野確認はできず、サイドファインダーでおよその視野を確認していました。)
ミッチェルは、Leonardの持ち込んだカメラの機能にいたく感銘を受け、現存のカメラに改造を施そうとします。
しかし、彼の勤めていたユニバーサル映画社は映画制作の会社であり、カメラ製造には興味が無かったため彼の主張は通りませんでした。
そこで、彼は同社を退職し1919年(Mitchell 30才の時)に会社を設立します。
1920年、MitchellはMitchell Standard 35mm Cameraを製造し販売します。
このカメラは、Leonardのアイデアを十分に組み入れたもので、大きな特徴は先に述べたラック&ピニヨンでカメラ本体部を光軸から直角に移動させてレンズ部を直接ファインダで覗くようにしていました。
ミッチェルカメラは、この他の特徴として、4方式のマットボックスをレンズサポートレール上に配置し手回しネジで簡単に操作できるようにしたことや、レンズ背後に(フィルムとレンズの間に)アイリスを置いて中心部のみならず自由な位置に調整できる特殊効果機能を持たせていました。
また、フィルターターレットをレンズ背後に配置し、簡単に取り替えられるようにしました。
自動シャッター機能もつけて170°シャッター角度からの自動フェードイン/フェードアウトができるようにしました。
これらのアイデアの多くは、彼と親しくしているハリウッドのカメラマンたちから貰ったもので、ミッチェルは彼らの要望を注意深く判断して設計に反映させました。
  
 
■ Mitchell high speed movement (2020.04.10)(2023.06.12追記)
ミッチェルカメラの特筆すべき大きな特徴は、先にも述べたフィルム送り機構です。
Bell & Howell 2709カメラもフィルム送りは巧妙で精緻なものでしたが、ミッチェルはその特許をかいくぐって、さらに独創的なアイデアを織り込み、より精緻で静粛なものにしました。
時代は静粛なカメラを求めていました。サウンド時代(トーキー)に入っていたのです。
ミッチェルカメラは下図に示すようにレジストレーションピンを動的な構造とし(前後に運動する抜き差し構造とし)、フィルムパーのフォレーション(孔)に挿す構造としています。
Bell & Howell 2709カメラのレジストレーションピンがカメラのアパーチャーゲートに固定されているのとは違っていました。
フィルム送り爪(Pull down claw)とレジストレーションピン(Registration pin)は、超精密なギアとカムで連動され爪がフィルムを掻き落とした後に静止用ピンが入ってフィルムを静止させます。
回転シャッターが開いて露光が終わると、静止ピンが抜けて掻き落とし爪が再びフィルムパーフォレーションに入り、4パーフォレーション分を送り落とします。
 
 
 
レジストレーション・ピンは直進(前後)運動でこれを可能にしているのは三角カム(レジストレーションシャフト・カム)です。
プルダウン・クローは駆動させるギアの回転中心より離れた位置に固定させています(エキセントリック配置)。
この構造によって撮影に伴う駆動ノイズが大幅に低減し同時録音を可能にしました。
これら部品は0.0001インチ(2.54μm)の許容範囲で精密加工されました。
1920年代はそうしたミクロンオーダーの加工を可能にしていたのです。
レジストレーション・ピンはフィルムの製造規格の範囲を越えて、0.0005インチ(12.7μm)の許容として、磨き加工がなされていたそうです。
こうしてみると、米国の機械産業は極めて高度な技術を持っていたことになります。
 
 
■ Mitchell社のその後
ミッチェル社はミッチェル氏のカメラ設計者としての天賦の才を発揮した会社とは言え、会社組織としてりっぱに運営がなされて成長を遂げたようには見受けられません。
ミッチェルカメラの名前はハリウッド映画史上燦然と輝く存在ではあったけれど、1970年代に静かに息を引き取った感じがあります。
1970年代の映画カメラはドイツ・ミュンヘンで成長を遂げてきたARII社(Arnold & Richter)社と米国カルフォルニアのPanavision社のカメラが台頭し、両者がフィルムカメラのシェアを広げていました。
日本でも1960年代以降の映画制作は、PanavisionかARRIのいずれかのカメラを用いて作品が作られてきました。
2000年代に入ってデジタルカメラが普及し始めると、Panavision、ARRIに加えてRED、Sony、Canonがデジタル映画カメラに参入し、多くのデジタルカメラやポストプロダクションが誕生して作品を作り始めています。
そうしたハリウッド映画の流れの中で、George Mitchell氏は1950年代に一線から退き、1980年に89才の生涯を閉じました。
Mitchell社の業績は会社設立の時からそれほど芳しくはなかったようです。
ひとたび映画制作会社にカメラを納品すれば、その後数十年も使い続けられる製品の性質上、多くの利益や注文が舞い込んでくる業種ではなかったようです。
1929年の世界恐慌の際は、FOX社(後、20世紀FOX、2019年より20世紀スタジオ社)のFOX氏がMithcell社の多くの株を購入してミッチェル社を支えたと言われています。
そのFOX氏自体も世界恐慌のあおりで財産をなくし、20世紀社との合併を経ていきます。
 
ミッチェル社が開発したカメラは以下の通りです。
 
1920年 Mitchell Standard 35mm Camera
最初のカメラ。
 
・1929年 Mitchell FC 70mm FOX Grandeur Studio Camera:
70mmサイズの大型カメラ
 
・1932年 Mitchell NC/BNC Camera:
News Reel(ニュースリール)カメラ。
BNCは、Brimped News Reel (ブリンプタイプ)。
同時録音を考慮して撮影音の出ないカメラ(ブリンプに入れたカメラ)を製作。
 
・1932年 Technicolor camera:
3ロールフィルムカラーカメラ。
カラー撮影用に白黒フィルム3ロールを同時駆動するカメラを開発。
 
・1940年 Mitchell GC:
高速度撮影用。128コマ/秒。
 
・1940年代 Mitchell SS Camera:
Single System カメラ。
第二次大戦中に米国陸軍用に開発。
NCの改良機。
 
・1956年 Mitchell VistaVision Camera:
パラマウント映画のビスタビジョン用カメラ。
ビスタビジョンは、35mmフィルム8パーフォ(36mm x 18.3mm、1.66:1、横駆動)
サウンド撮影対応。
 
・1962年 Michell R35 Camera:
ファインダーをレフレックスタイプにしたもの。
1965年にMark IIを発売。
 
・1967年; Mithcell NCR/BNCR Camera:
ファインダーをレフレックスタイプにしたNC/NCR。
以後、このカメラは、パナビジョン(Panavision)社の
パナフレックス(PnaFlex)に引き継がれた。 
  
 
●  Panavision(パナビジョン)(2020.04.08)(2020.04.19追記)
パナビジョン社は映画機材のレンタル会社としてスタートしています。
パナビジョンカメラのムーブメントは、ミッチェルのものがそのまま踏襲されています。
ミッチェルカメラの特許がどのような形でパナビジョンに委譲されたのかは調べ切れていません。
そのミッチェル社は1960年代後半からミッチェルカメラとしての革新的な仕事をしていません。
それは、1950年代後半にミッチェル氏が引退した時期と軌を一にしています。
それと前後するようにPanavisionカメラが登場します。
1960年代後半からのハリウッド映画のほとんどは、Panavisionカメラとワイドスクリーン用レンズが使われるようになりました。
 
Panavision社はロバート・ゴットシャルク(Robert Gottschalk:1912 - 1982))氏によって、映画産業のレンズを供給する会社として1953年米国カルフォルニア州ロスアンゼルスに設立されました。
彼は、米国東部の美大を卒業後、映画産業で身を立てるためハリウッドに移り、20世紀フォックス社のワイドスクリーン映画制作に携わります。
その制作でアナモフィックレンズ(anamorphic lens)を手がけてシネスコープ・レンズ群を取り扱う会社、Panavision社を設立します。
 
Panavision社は拡大映写光学レンズを扱う会社としてスタートし、折からのワイドスクリーン映画の興隆とともに業績を伸ばし、1970年代からは、映画産業機材のトップブランドにまでなりました。
同社は、ワイドコンバージョンレンズのビジネスの他に、フィルムカメラも扱うようになりました。
Panavisionがカメラを扱い出すのは、1962年です。
MGMが手がけた映画(マーロン・ブランド主演「戦艦バウンティ」)の制作費用が膨大なものになり、MGMの持つカメラ資産をPanavisionに売却されたことからカメラ事業が始まりました。
1967年、彼らはミッチェル35mmカメラ用に防音ブリンプを設計製作し、これがPanavision Silent Refrex Camera(PSR)となりました。
パナビジョンのカメラは、ミッチェルカメラだったのです。
1970年代以降のハリウッド映画カメラは、ミッチェル色が失せて来てPanavisionカメラとしてのブランドが定着していったように感じます
 
Panavision社はユニークな会社で、映画制作機材を一手に引き受けながら、しかし、機材の販売は行わずすべてレンタルを行っています。
カメラレンズも、カメラも三脚もすべてレンタルです。
映画制作会社にカメラを売ることはしませんでした。
レンタル会社でありながら、必要なものは作り上げ、しかも自社の製品は徹底的にメンテナンスを施しユーザに満足する体制を取っています。
 
おもしろいことに、Panavision社の最大のライバルはドイツ・ARRI社でありながら、ARRI社の大きなお客様でもありました。
つまり、Panavision社はレンタル業務を行うためにARRI社からたくさんの映画機材を購入しているのです。
通常は、ライバル会社であればカメラ販売は躊躇するものでしょうが、Panavision社がハリウッドでは相当なネームバリューを持っていることとや、ワイドスクリーン用のコンバージョンレンズを巾広く手がけていること、65mm/70mmフィルムカメラを持っていること、サービス体制がしっかりしていることなどから、ハリウッドで商売をするならばPanavision社と共存したほうが特だと考えたのかも知れません。
 
アメリカ合衆国西海岸のハリウッドの近くBurbankに軍需、産業向けの映画カメラを作っている企業 Photo Sonics社があり、1940年代からフィルムカメラを製造販売していました。
Photo-Sonics社の開発したカメラムーブメントは、Mitchell社のカメラムーブメントと極めてよく似ています(右図参照)。
おそらく、当時、その界わいでは映画産業仲間で技術的な交流があって、その流れの中でフィルム送り機構も似たような構造のものが踏襲されていたのではないかと想像します。
Photo Sonics社とMichell社でライセンス供与があったとか、技術屋の移動があったかどうかはよくわかりません。
私自身1978年から2000年までの22年間、この高速度カメラの扱いや技術的な仕事をしていましたけれど、このカメラとMitchellカメラの関係がわかる資料を見たことがありません。

 

 
● Arriflex(アリフレックス)(2020.04.12)(2020.04.29追記)
アリ(ARRI、Arnold & Richter)社はドイツ・ミュンヘンにある会社で、August Arnold(1898 - 1983)とRobert Richter(1888 - 1972)の二人が1917年に設立しました。
 
第一次世界大戦後、服役から帰った二人は小さな会社を起こし種々雑多なカメラやプリンタ(フィルム焼き付け装置)、照明装置の修理を行っていました。
彼らはまたカメラマンでもあり映画監督でもあり、秀逸な映画作品をいくつか残しました。
 
映画カメラは上にも述べて来たようにフランスと米国東海岸で発明され、国力の強い米国のお家産業となっていました。
米国東海岸は映画産業を興したエジソン社、映画フィルムを製造するコダック社、プリンタとカメラを製造するBell &Howell社があり、米国西海岸は東海岸からハリウッドに移った数々の映画スタジオ、カメラのミッチェル社、レンタルやアナモレンズのパナビジョン社などがありました。
 
米国の映画産業は規模が欧州とはまるで違いました。
ドイツのアリ社はそうした映画産業の趨勢の中で、創業7年後の1924年、小型コンパクトなKINARRI35カメラ(手回し式100ftフィルム収納)を開発します。
このカメラはハリウッドの主流となっていたミッチェルカメラとは対照的なものでした。
彼らは1937年、世界で初めての回転ミラーによるレフレックスカメラARRIFLEX35(写真 左)を開発し、販売を開始します。これは映画カメラ業界の一眼レフカメラとも呼ぶべきものでした。
このカメラの特徴は重さが6.1kgと小型軽量で、かつ、撮影中でも実際の撮影画面を常時覗き続けられました。
 
回転円板レフレックスシャッターファインダーは、下右図の概念図で示されるように回転円板シャッターの円板部にミラーを貼って、ミラーから反射された光をファインダーで覗く方式としています。
回転円板シャッターは円板の半分で1コマ分を相当していたので、16コマ/秒の撮影では円板は撮影速度の半分、つまり、8回転/秒となっています。
反射ミラーは撮影速度間隔の半分(シャッターアングル換算で180°、円板シャッターの開角度は90°)を占めているので、この時間以上の露光はできません。
回転円板シャッターがフィルム面を覆い被さっている時間内でフィルムを掻き落とします。
この回転シャッターは可変の遮光円板が設けられていて、この遮光円板が閉じていくと露光時間が短くなっていきます。
 
円板シャッターを使用したアリ社のリフレックスファインダーは、当時のBell &HowellカメラにもMitchellカメラにもない大きな特徴でした。
アリ社(ARRI)のミラーレフレックスカメラ(Mirror Reflex Camera)と言うことから、アリフレックス(Arriflex)と名付けられました。
このドイツのコンパクトカメラは第二次世界大戦中に威力を発揮します。
連合国アメリカはBell & Howell社のEyemoを携えていました。
 
戦後、ARII35は戦勝国の戦利品として連合国に没収され、レフレックスファインダー機能は戦勝国のものとなりました。
ARRI社のあるミュンヘンも戦火の中にありましたが、工場はミュンヘン郊外にあったため全焼は免れ、1956年にはARRIFLEX IIを開発することができました。
 
Arriflexはミラーレフレックスファインダーを大きな特徴としていて、かつ、サイズもコンパクトで精巧な機構部品ともあいまって、重厚長大なアメリカのカメラとは対照的な製品として位置づけられました。
 
下の写真は1964年東京オリンピックのドキュメンタリー映画「東京オリンピック」(市川崑監督)制作の際に使われたカメラが勢揃いした記念写真です。(中央でタバコを加えて指揮のポーズをとっておられるのが、当時49才の市川崑監督。)
カメラのほとんどに望遠レンズ (= レンズ鏡筒が長い)が取り付けられているのがわかります。
3億7000万円(現在の37億円相当)の制作費をかけたドキュメンタリー映画は、556名のスタッフを擁し、撮影カメラマンは164名を数えました。
使用したカメラは合計104台で、アリフレックス(Arriflex 35 II)が46台が使われました。
この他には、Bell&Howell社のEyemo(アイモ)47台、高速度カメラ(フランス エクレール社カメフレックス、Eclair Cameflex)3台、ミッチェルマークII 2台、そしてミッチェルNCが1台使われました。
使用したフィルムは40万フィート(400ftフィルム1000缶、延べ録画時間74時間)に上りました。
この作品は望遠レンズが多用されていて、遠く離れた位置にカメラを置き、選手の息づかいを望遠レンズで追いかけました。
100m走のボブ・ヘイズ(Robert Lee Hays)選手や、マラソンのアベベ(Abebe Bikila)選手のクローズアップショットには、望遠レンズに加えてスローモーション撮影(ハイスピードカメラ)が使われました。
アリフレックス35IIカメラがなぜ46台も使われたのかと言えば、ドキュメンタリー撮影に最適な性能、すなわちレフレックスファインダーと軽量で堅牢なボディーを兼ね備えていたからです。
「長焦点距離レンズ、もしくはズームレンズをカメラに装着して動きの速いスポーツ選手を追いかけるには、このカメラ以外にはなかった」と、この写真は物語っています。
アリフレックス35IIと同台数が使われたBell&Howell社のEyemoは、小型軽量で手巻きゼンマイの撮影機でした。
バッテリーは必要ありませんでした。
1960年代半ばになっても、相当数のEymeoが使われていたことが理解できます。
このドキュメンタリー映画を撮影したカメラマンは、当時一匹狼と言われていたニュース映画に携わっていたフィルムカメラマンでした。
彼らはテレビニュースが一般になっていなかった1930年代から1960年代に活躍した劇場上映ニュース撮影を専門とした新聞社所属のカメラマンで、映画制作会社に所属していた映画カメラマンとは対象物を追う姿勢が違っていました。
映画カメラマンは大きなミッチェルカメラを据えて、照明装置を豪勢に点灯させて舞台を構築して極上の画像を撮ることを旨としていました。
ニュースカメラマンは、彼らとは反対で、屋外に出て刻々変わる撮影対象の決定的瞬間を撮るために身一つで出かける人達でした。
カメラも当然戦場に出かけるような身軽なものが求められたので、Arri35やEymeoは彼らの手足のようになって撮影現場を駆け巡っていました。
こうしたニュースカメラマンもビデオカメラが発展するとともに淘汰され、1980年以降ニュース(報道)現場の座を譲って行くことになりました。
 
アーノルド&リヒター社は65mm巾の撮影カメラにはそれほど注力していなかったようで、35mmフィルムと16mmフィルムカメラがメイン製品でした。
しかし、1970年代後半ハリウッドでの65mmフィルムカメラの要求が高まり、同時録音できる低ノイズフィルムカメラの要求から、ARRI765を1983年に開発しました。
1960年代のハリウッドは、Panavisionが65mm用、35mm用のワイドスクリーンカメラで依然としたシェアを保っていましたが、アリフレックスカメラの機動性を重視した作品も作られるようになり、シェアを伸ばしていきました。
2000年以降、デジタルカメラがハリウッドでも普及するようになると、デジタルカメラ(Arri Alexa)への移行も成功し、多くのシェアを勝ち得るようになりました。
 
 
● 16mmフィルム  (2020.03.14)(2020.04.20追記)
16mm幅のフィルムは1923年にイーストマン・コダック社が開発しました。
コダックは16mmフィルムを使って動画を撮るCine-Kodak(カメラ)も製作します。
35mmフィルムは高価だとするアマチュアユーザー向けに、35mmフィルムの半分の巾を持つフィルムを作ったのがビジネスの動機です。
35mm巾の半分は17.5mmですが、16mm巾とした理由がよくわかりません。
たしかに、17.5mm巾のフィルムは存在していました。
調べてみると、17.5mm巾のフィルムは1898年には存在していたようで、英国の写真家で発明家のBirt Acresが自分用に製作したそうです。
その後、11mm巾(1902年)、28mm巾(1912年)、22mm巾(1912年)、9.5mm巾(1922年)と様々なフォーマットフィルムが作られて、それに対応するカメラと映写機も作られました。
これらの多くはアマチュアの域を出ておらず、当時一般的になっていたセルロース素材の35mm巾のフィルムを流用、加工して使っていました。
 
個人目的ではなく会社組織でビジネスとして小型映画カメラを製作したのは、フランスのパテ社で、1912年に28mm巾のフィルム用カメラと映写機を作ります。
彼らはこのフィルムゲージでアマチュア向けのフィルム映像ビジネス(パテスコープ・ライブラリー)を展開しようとしていました。
テレビ放送のない時代の家庭用娯楽ビジネスを構築しました。
コダックも同じビジネスを企画します。
こうした背景を考えると、おそらくコダック社は、パテ社のフィルムゲージを避けて、かつ28mmフィルムよりコストの低い(17.5mm巾に近い)16mmとしたのだろうと考えます。
Kodakは16mmフィルム規格(gauge)を開発するにあたって、パテスコープ・アメリカ社(Pathescope company of America)からWillard Beech Cook氏を雇って(おそらく引き抜いて)コダスコープライブラリー(Kodascope Library)を作ります。
16mmフィルムを使った娯楽・教育素材を作り、これをレンタルする事業を始めたのです
第一次世界大戦が終わるまでは、パテ社の28mmフィルム(ライブラリー事業)は欧州のみならず米国でもけっこうな普及を見ていたようです。
コダックはこれを打ち破ったことになります。
 
コダック社はアマチュア向けに開発した16mmフィルムに以下の特徴を持たせました。
 
1. フィルム素材に可燃性のセルロイドに代えてアセテートとした。
  セルロイドは火災をよく起こして危険きわまりなく、管理が徹底しない家庭用には不向きだった。
2. フィルムはネガティブではなくリバーサルとして現像後直ちに映写できるようにした。
3. この規格のフィルムと関連機材(三脚、プロジェクタ、スクリーン、フィルム編集酢プライサー)を
  低価格で貸し出し、現像処理も全米に拠点を置いた彼の会社ですべて請け負った。
 
コダックの大きな資本の力によって、アマチュア向け小型フィルムカメラが家庭に普及していきました。
以後、16mmフィルムは2000年までの80有余年、ドキュメント映画やニュース用取材、テレビドラマ制作、高速度カメラ用フィルムに利用されました。
 
このフィルムは、基本的には両側にパーフォレーションが設けられていて、1ft当たり40コマの撮影ができました。
後になって、フィルム面にサウンドを入れるスペースを確保する関係上、パーフォレーションが片側だけのフィルムも登場します。
撮影速度は、35mmフィルムと同じ無声映画の時代は16コマ/秒で、トーキーの時代になってからは24コマ/秒となっています。
このフィルムの果たした歴史的な役割は、大変大きいものであったと私は思っています。
このフィルムは、ドキュメント記録用に大活躍しました。
第二次大戦の戦場での記録は、小型で携行性に優れた映画カメラが必要とされました。
米国ベル&ハウエル(Bell & Howell)社は、この要求に応えるため、1923年にFilmo(フィルモ、右写真)を開発します。
Bell & Howell社はまたフィルムの兄弟カメラとして1925年にEyemo(アイモ)カメラを開発しています。
アイモは、35mmフィルムを使用した手巻きカメラでした。
Filmoは3本式ターレットレンズ(カメラ全部に3本の単一焦点距離レンズを取り付けるリボルバー、顕微鏡のレンズリボルバーのようなもの)がついていて、撮影目的に応じてレンズを回して選択していました。
ファインダーは二眼方式になっていて、レンズターレットを回すとそれに応じて対応するファインダーがギア駆動でセットされました。
このカメラは片手で持ち運べ、巻き上げ式のゼンマイでフィルム駆動を行うことができました。
Filmoは1970年代のビデオニュースカメラ(ENGカメラ)が台頭するまで、テレビ放送局、報道機関で多く使われました。
 
また、ドイツではアーノルド&リヒター社がArri 16ST(下の写真)と呼ばれる携帯性の良いレフレックスファインダー方式の16mmフィルムカメラを開発し、安価な映画撮影ができるカメラとして使われました。
第二次大戦でも数多く利用されたと思われます。
(この種のカメラ資料では35mmフィルムカメラのArriflex35が多く見受けられるものの、16mmフィルムカメラのものは見つけられていません。
Arri16STは、大戦後に作られたカメラですが、同系列の16mmカメラが以前にもあったと思います。
ただその機種がどれであったか調べ切れていません。)
 
以下の写真は、ARII社のホームページ(「The History of ARRI in a Century of Cinema」)からお借りしている写真です。
上の写真は1960年代のオリンピックの報道カメラマンたちの撮影風景だと思われます。
たくさんのArri16STが使われています。遠い所の撮影を行うため望遠レンズが取り付けられています。
このカメラは一眼レフレックスであったこと、コンパクトであったこと、メカニズムがしっかりしていたこと、電動で動いたこと、必要に応じて400ftフィルムマガジンが装着できたこと、などの特徴を持っていて、なおかつ高品質で使い勝手が良かったためにこれだけの注目と名声を集めたのだと思います。
当時はビデオカメラは無く、放送用のテレビカメラは大きかったため撮影が限られていました。(上記の写真は、テレビ報道用の記録として16mmフィルムが使われたと解釈しています。16mmフィルムカメラで撮影してテレシネで放送されました。映画用には16mmフィルムではなく、35mmフィルムが使われました。「ドキュメンタリー映画 東京オリンピック」)。
 
その他、報道用の16mmカメラとしてはスイスのBolex(ボレックス)、ボリュー、フランスのエクレール、日本ではキヤノンのキヤノン スクーピック(Canon Scoopic16 _ 1965)がありました。
第二次大戦と戦後を通した1980年代後半までのニュースは、ほとんどこれらの16mmフィルムカメラを使用していました。
35mmフィルムはコストがかかりすぎるので、テレビに流すニュース取材はすべて16mmフィルムが使われていて、映画館で流すニュースフィルムには画質の良い35mmフィルムが使われました。
ビデオテープレコーダ(ENG = Electoronic News Gathering)が普及するのは1980年代後半からで、ニュースを取材するカメラがソニーのベータカムに代表されるビデオカメラに置き換わると、その普及はすさまじく、2000年以降はほとんどのニュース取材やテレビドラマがビデオカメラに置き換わって行きました。
フィルムカメラは現像工程が入るため即時性に問題があります。
ビデオカメラの即時性はそれほど魅力があったということです。
 
高速度カメラでは1930年代から1990年代までは16mmフィルムを用いたカメラがほとんどで、16mmフィルムを高速で送りながら10,000コマ/秒までの撮影を行っていました。
詳細は「高速度カメラの歴史背景とトピック 間欠掻き落とし式フィルムカメラ」を参照下さい。
代表的な高速度カメラとしては、米国Photo-Sonics社(フォトソニックス)の16-1PL、16-1B、米国Photec社(フォテック社、現在はVisual Instruments社)のPhotec、日本のナック社のE-10(1975年以前は日立のHitachi 16HS、16HD)、スイスワインバーガー社のSTALEXなどがあります。
また、米国ではRedlake社のHycam、Locam、Fastax、フェアチャイルド社ミリケン(Miliken)などがありました。
16mmフィルムは、100ft(30.3m)、400ft(121m)タイプが主流です。
この他に、200ftタイプ、1200ftタイプもありますが特注的な扱いとなります。
また、これらのフィルムはスプール巻きとコア巻きの二種類があって、高速度カメラ用のフィルムは遮光のためのアルミ製のツバが付けられたスプール(日中装填)が使用されました。
 
 
 
 
 
● 8mmフィルム(2020.04.18記)
ビデオカムコーダの8mmではありません。
フィルムの8mmです。
このフィルムは1932年にイーストマン・コダック社が開発しました。
16mmフィルムではまだ高価であるとするアマチュアユーザ向けに、16mmフィルムの半分巾のフィルムを作ったのが始まりとされています。
これはダブル8(とかレギュラー8、R-8)と呼ばれていました。
当初は16mmフィルムをそのまま使い、露光するアパーチャを半分のサイズにして片側づつ2トラックにして撮影していました。
現像処理後にフィルムを中央で切り離し、2本として8mm巾の映写フィルムとしました。
16mmフィルムは両目のフィルムを使って二つに切り離すので、パーフォレーションは片側だけとなります。
またパーフォレーションの孔寸法は同じで、パーフォレーションの孔の数は倍(パーフォレーションピッチは16mmフィルムの半分)に増えていました。
ダブル8の欠点は16mmフィルムの流用だったので、パーフォレーションが大きく有効寸法画面がフィルム巾の60%しか使えませんでした。
フィルム上にサウンドトラックを設けようとすると、さらに画面寸法を小さくしなければならないという問題を抱えていました。
この問題を解決するために、1965年(8mmフィルムは33年間も同じ規格だったんですね!)、16mmフィルム巾に代えて8mmフィルム巾として、8mmフィルム専用のパーフォレーションを空けたものがコダックよりスーパー8という名前で発売されました。
また、富士フイルムではシングル8という名前で登場しました。
このフィルムはサウンドトラック用のスペースが確保できたばかりでなく、有効画面寸法も大きくなったため映写画面の質と明るさが向上しました。
このフィルムは予めカートリッジに入れられ、8mmフィルムカメラに入れるだけで撮影ができるようになり簡便なものとなりました。
コダックではこの他にやはり16mmフィルムを用いて、パーフォレーション寸法や画像の寸法形状をスーパー8 と同じにしたダブルスーパー8というフィルムも市販していました。
 
興味あることに、35mmフィルム、16mmフィルム用の映画カメラには触手を伸ばさなかった日本のカメラメーカーが、8mmフィルムカメラになると富士写真フィルムやキャノン、エルモ、三協、アルコ、ヤシカ、日本光学(現:ニコン)が製品を製作し販売しました。(キャノンは16mmフィルムカメラを使った報道局向け用にCanon Scoopic 16 = キャノン スクーピック16カメラを1965年から製造していました。)
コンシューマー用の製品の方が生産・販売台数が見込めるので、日本のメーカーはこうした商品に対して積極的に触手を伸ばすことがこのことからも理解できます。
8mmカメラを持つ日本のユーザは、1960年代から1980年代を通してほんの一握りのマニアだけでした。(海外向けの方が販売が期待できました。)
1980年代終わりにビデオテープレコーダー(Sony Handycam CCD-TR55)が発売されました。これが一般大衆に大きく受け入れられたアマチュアムービーカメラでした。
そして、1990年終わりから2000年始めにはデジタルカメラが普及するようになって、8mmフィルムカメラの需要はその波に揉まれて大きなウェーブを作ることなく減っていきました。
 
 
 
 
 
● 70mm/65mmフィルム(202004.029記)(2023.06.12追記)
70mmフィルムは大型劇場用のフィルムです。
映画フィルムは、1890年代中頃に35mm巾のロールフィルムで始まりましたが、その倍の巾の70mmロールフィルムを使った映画も当時からあり開発が進められていました。切磋琢磨があったようです。
ジョージ・イーストマンがロールフィルムを作った当初、すでに70mmフィルムは存在していました。エジソン(とディクソン)は70mmフィルムを半分にした35mmのロールフィルムをイーストマンに注文したといういきさつがあります。
もちろんパーフォレーションのない帯状のロールフィルムでした。(パーフォレーションはエジソン側で加工をしていました。)
映画は、35mmフィルムカメラが主流となりました。
本格的に70mmフィルム映画が作られるのは、40年経った1930年代となります。
その後時代を経て、70mmフィルムの規格は3つとなりました。
一つ目は、1930年代のタイプI(イメージサイズは4パーフォレーション)で、二つ目は軍需用のタイプII(イメージサイズは10パーフォレーション)、そして3つ目は、1950年代後半の娯楽映画産業の65mm/70mmフィルム規格(5パーフォレーション)となります。
65mm/70mmフィルムにはもう一つ、以下に述べているIMAXがあります。
これは15パーフォレーションの横走りの映画です。
 
【1930年代の70mmフィルム映画】
本格的な70mmフィルムを用いた映画・上映館作りが始まったのは、1928年、FOX映画社を創始したWilliam Fox氏が手がけた「Fox Grandeur(グランデュア)」( = grand cinema)からとなります。
70mmカメラはミッチェル社に発注され、1929年にMitchell FCカメラが製作されます。
FCカメラとはFox-Caseの略で、カメラがFox-Case社から注文されたことから来ています。
CaseとはTheodore Case氏のことで、彼は音響が専門でフィルムに光学濃度式のサウンドトラックを発明した人として知られています。
彼はFox氏と共同で会社(Fox-Case社)を興し、サウンドトラックを組み入れた70mmフィルム映画を作り始めました。
しかし、1929年は世界恐慌が始まった年で、大がかりな計画は頓挫してFOX映画社自体も経営が怪しくなりました。
1930年当時、70mmフィルム映画を上映するのはロスアンゼルスとニューヨークの2館だけでした。
その時の作品は白黒ミュージカルで「Fox Movietone Follies of 1929」でした。
 
70mmフィルム映画は1930年代から1950年代前半までそれほど大きな前進はなく逆に沈静化していた感があります。
資料によると、70mmフィルムはその間忘れ去られていて、映画産業は、35mmフィルムを使ったカラー化、サウンドトラック、複数台のカメラを使ったワイド化に進んで行ったとありました。
忘れ去られた70mmフィルムが再度見直されるのは、1940年代後半、テレビ放送の躍進からです。
テレビの登場によって映画業界はかなりの危機感を持ったと言います。
テレビにない魅力的な映像が求められ、その一つが大画面上映ができる65mm/70mmフィルムであったと言われています。
【1950年代からの70mmフィルム映画】
70mmフィルムカメラによる撮影が再開されたのは、1955年です。
Michael Todd(1909.06 - 1958.03)氏とAmerican Optical Companyによって、Todd-AO(とっどえーおー)というブランドの70mmフィルムワイドスクリーン映画が作られました。
(American Optical Companyは、1869年にマサチューセッツ州で創業した眼鏡メーカー。軍用のサングラス、ゴーグル、暗視装置などを手がけて来た老舗、Todd-AOの開発は、バッファロー NewYorkの同社で行われたようです。中心人物は光学で著名なDr. O'Brien。)
Todd-AOは、当時開発されたシネラマ(Cinerama、3台の35mmフィルム映写機を使った145°ワイドスクリーン上映。右の作図は観客からのスクリーンの視野角)に対抗する大画面の上映用として開発されました。
シネラマが35mmフィルムを3本使うのに対し、70mmフィルム1本の方が技術的に簡単だろうという算段のようでした。(実際に3台のカメラの相互のつなぎ目のズレや、同期撮影、同期映写、音声の同期など技術的な課題も多くあったようです。)
 
Todd-AOシステムを開発するにあたり、ワイドスクリーンによる周辺部の光量変化と像面歪曲を解決するため、時の著名なオブライエン博士と契約して、実際の光学部品製作をAmerican Optical Compnynに委託しました。
 
カメラは1930年代に開発したミッチェルの70mmカメラ(Mitchell FCカメラ)を65mm巾用に改修しました。
初期のものは30コマ/秒で撮影されて上映されました(通常は24コマ/秒です)
撮影時にはサウンドトラック部は必要ないので、それを省いた巾の65mm巾のフィルムで撮影をして、プリント時に左右2チャンネル(フィルム両端、2.5mm x 2 = 5mmの巾)とパーフォレーションの内側に左右それぞれ1チャンネルの合計6チャンネルの音声部(サウンドトラック)とした70mmフィルムにして上映していました(上図参照)
従って、70mmフィルムは1930年代のものとは異なって、パーフォレーションの形状もピッチも位置も違ったものとなりました。
撮影に65mmフィルムを使うというのが、1930年代の70mmフィルム撮影との大きな変更点でした。
 
Todd-AOのサウンドトラックは、磁気方式の6トラックになっています。
Todd-AOにはもう一つ特徴があって、70mmフィルム状に記録されたサウンドトラックとは別に、35mmフィルムのすべてに磁気コーティングを施した録音フィルムを用意して、これにサウンドを入れて上映時画像と同期させていました。
音にすごくこだわったシステムでした。
 
Todd-AOの最初の作品名は、ミュージカル映画の「Oklahoma」(オクラホマ、1955年、アカデミー賞音楽賞受賞)でした。
Todd-AOはその後「80日間世界一周」(1956年、アカデミー作品賞)を手がけました。
Todd氏の急逝(飛行機事故)後カメラシステムはパナビジョン社が引き継ぐ形になり、Todd-AO社自体はサウンドトラックに注力するようになりました。
PanavisionはPanavisionで、同時期、MGMと一緒にMGM Camera 65(のちにUltra Panavision 70)を開発していました。
MGMも経営が思わしくなく、MGM65は1960年以降、Panavisionカメラとして知られるようになります。
Panavisionカメラも元はMGMがミッチェルに作らせた70mmフィルムカメラでした。
Todd-AO方式による映画は1960年以降も「サウンドオブミュージック」(1965年、アカデミー賞、作品賞、音楽賞、他)、「パットン大戦車軍団」(1970年、アカデミー賞 作品賞、監督賞、他)と続きました。
 
【MGM、Panavision】。
Todd-AOが70mmフィルムを使ったワイドスクリーン化を進めていたのと同じ時期に、映画配給会社MGMもPanavision社と共同して70mmフィルム映画を作り始めました。
Todd-AOがワイドスクリーンをわん曲にして大画面を上映する方法をとっていたのに対し、MGMはフラットなスクリーンに横長の画面上映する方法を採用しました。
MGMがパナビジョン社に対して、左右を圧縮撮影し映写時に元に戻して映写画面をワイド化するレンズ系を委託したのです。
 
Todd-AOは1958年Mike Todd氏の航空機事故による急死を受けた後、Panavision社に吸収されました。
Panavision社はまた、1962年以降にMGMが所有していたミッチェルのカメラを譲り受けるようになって、自社ブランドに取り込んで行ったように思います。
それらのカメラをSuper Panavision70、Ultra Panavision70として構築し、70mmフィルム映画の主導謙を握っていきました。
これらカメラの心臓部(フィルムムーブメント)はミッチェルカメラであり、画面の左右を圧縮して撮影する光学装置(アナモフィックレンズ、Anamorphic lens)はPanavision社の育んだものでした。
この装置で、「ベンハー」(1959)、「アラビアのローレンス」(1962)、「マイフェアレディ」(1964)、「サウンドオブミュージック」(1965)を手がけて行きました。
 
70mmフィルム映画は、とにかくお金がかかるのでたくさん制作することはできません。
年に2〜3本平均の制作となりました。
このペースは現在(2020年)でも続けられていて、さすがに全編65mmフィルムカメラとはいかず、置き換えられるところはデジタルカメラで撮影して編集していく方法がとられています。
また、多くの映画は比較的安価な35mmフィルムで撮影され、70mmフィルム映写のできる映画館には35mmフィルム→70mmフィルムに拡大(ブローアップ)プリントされたものが配給されるようになりました。
 
65mmフィルムで撮影するのは大変なお金がかかるので、35mmフィルムカメラで撮影して、70mmフィルムに拡大プリント(ブローアップ)して上映することが1970年代から行われました。
35mmフィルムを使うより粒状性は向上するので、大画面映写上では一定の効果をもたらしました。
 
 
 
計測用にも70mmフィルムカメラが用いられ米国の航空宇宙産業分野で使われてきました。
上図の米国Photo-Sonics社の70mmフィルムカメラ70-10Rは、計測用のフィルムを使ったカメラで、映画用のフィルム規格とは別でした。
フィルムは計測用に作られた70mmフィルム Type IIというものが使われ、正方形のイメージサイズ(10パーフォレーション)でした。
 
 
■ IMAX (2020.04.29)(2020.06.28追記)
IMAX/OmniMAX(あいまっくす / おむにまっくす)は70mmフィルムを用いた大きなイメージサイズの映写システムです。
 
このイメージサイズは130年の映画史上の中でもっとも大きなサイズであり、これ以上の大きさの映画は今後は作られないだろうと言われています。
大きなフィルムを使用するといろいろな問題が生じます。
しかしこのフィルムサイズは経済的な観点(フィルム代、現像、プリント代)ももちろん、撮影上の問題点(大きなカメラの運用)もあります。
 
技術的な観点から見ると、IMAXは大きなサイズのフィルムを走行させる駆動の問題があります。
1秒間に24回ものストップ&ゴーを繰り返すフィルムは、かなりの負荷を負うことになり、一日6回、年240回(1500回の使用)の興業で課せられるフィルムへの負荷(擦り傷とパーフォレーションの消耗)を考えると、IMAXフィルムの映写システムが究極で最後であると思わざるを得ません。
 
IMAXとOmiMAXの違いは、IMAXが巨大な平面スクリーンに投射する方式であるのに対して、OminiMAXは半ドーム状の球面映写方式で、全天映写となっています。
 
IMAXシステムが使用するフィルムは70mmフィルム(撮影は65mmフィルム)で、15パーフォレーション分が1画面になります。
70mmロールフィルムの送り方向を横サイズとして、フィルムの巾を縦サイズ(横2.772" x 2.072"、70.4mm x 52.6mm)にしています(1970年のサイズ)。
従来の映画フィルムが対象物に向かって撮影ロールフィルムを縦方向に走らせているのに対し、IMAXは横方向に走らせています。
右のカメラ写真からもわかるようにフィルムマガジンは横位置になっています。
 
  
 
● IMAX社(Multiscreen Corporation、1967)(2023.06.09追記)
この方式を開発したのはカナダ・トロント近郊のMississaugaにあったIMAX社(前身はMultiscreen社、カナダオンタリオ州Galt、1970年に社名を改名)で、1967年に創設されました。
IMAXの着想をしたのはRoman Kroitor(1926〜2012)です。
モントリオール万国博覧会'67のカナダ館の映像展示「ラビリンス = In the Labyrinth」に関わり、35mmフィルムと70mmフィルムを使ったマルチスクリーンを手がけた時に、IMAXを思いついたそうです。
彼はその着想をもとに高校時代の友人で同じ仕事をしていたGreeme Ferguson(1929〜2021)と、ビジネスと政治方面に明るいRobert Kerr(1929〜2010、政治家)、それに技術者のWilliam Shaw(1929 〜 2002、元Fordのエンジニア)の4名が集ってMultiscreen社が設立されました。
最初のIMAXの興業は1970年の大阪万博の富士グループパビリオンで行われました。
横19m x 縦13mの巨大スクリーンに、17分間の「Tiger Child」(虎の仔)が上映されました。
当時、大阪万博の中でも飛び切りの催しものが富士グループパビリオンで上映されたIMAXとアメリカパビリオンの月の石だったことを中学3年生だった私はよく覚えています。
IMAXの映像はど迫力でした。
 
 
【大阪万博 - 富士グループパビリオン興業顛末】
IMAX社(前身はMultiscreen社)が設立された1967年当時、彼らのIMAXシステムはまだ完成していなかった。
彼らが求めていた展示手法を模索を続ける中で、日本からグッドニュースが飛び込んだ。
大阪万博'70の視察団がモントリオール万博に出向いて来ていて、彼らと面談した。
その中で、富士銀行を旗頭とした36社が集まる富士グループが同社の技術を高く評価し、大阪万博富士グループパビリオンの映像展示に制作のみならず、ハードウェアの開発資金まで用意する提案を受けた。
彼らはその申し出に小躍りしたという。
大型映像を映写する映写機は、その時点では試行錯誤をする構想中の段階であった。
36社のグループの中の一社キャノンは、大型映写機用の映写レンズを新たに設計・製造することを約束してくれた。
映写機の設計を一から始めていた時に、偶然が舞い込んで来た。
オーストラリアのブリスベンに住む映写機修理屋のRon Jonesという人物が、革新的なフィルム送り技術「Rolling Loop」(ローリングループ)の特許を持っていることがわかった。
この方式は、従来のフィルム掻き落としと違って、フィルムを波打たせてその皺を押し延ばしてフィルムを送るというものであった。
彼らはブリスベンに飛び、パテントをかぎつけるであろうハリウッドの競合と面倒なことになる前に、Ron Jonesの特許を買い取った。
その技術の習得に、自動車会社のエンジニアであった高校時代の友人William Shawをエンジニアとして引き入れ、Rolling Loop技術を自社のものとして新しい映写機を開発した。
幸か不幸か、Shawには映写機の根本技術がなかったためすべてにわたり独創的な新しい映写機を作り上げることができた。
ローリングループ式の初期設計とプロトタイプはできたものの、事はトントン拍子にはいかずスムースなフィルム走行を得るにはほど遠かった。彼はこれをオンタリオ・ハミルトンの大学研究室に持ち込み、走行時のフィルムの力のかかり具合を計算と実験により割り出し、彼の新しいアイデアも盛り込んで、映写機の最適化を成し遂げていった。
 
 
IMAXカメラ:
65mm(撮影は65mmフィルム、映写は70mmにプリント)フィルムを使って、15パーフォレーション送りを行うカメラも新規製作であった。
MGMのRobert Gaffney(1931〜)から、デンマークに腕利きのカメラ設計・製造者がいることを聞き、コンタクトを申し入れた。
そのエンジニアは、ノルウェー人のJan Jacobsen(1919.12 〜 1998.06)と言った。
彼は、映画の世界では名の知れた人物で、小型軽量カメラの設計製作を得意としアナモレンズの組付けや特殊機械製造を手がけていた。
会社を興してビジネスを大きくしていくタイプではなかったようで、コンサルタント的な仕事を生業としていたようであった。
Jacobsenはノルウェー生まれで、ティーンエージャーの頃から大の映画好きであった。
ドイツ・ハノーバーの大学で無線と通信を学んだが、卒業論文は、16mmフィルムにおける光学音響であった。
卒業後、ノルウェーのオスロに戻り音響技術師として働いた。終戦後(1945年、26才頃)米国に渡り映画関連の技術的仕事に携わった。
その後、英国に渡ってアナモフィックレンズ(画面左右を縮小撮影して映写時拡大撮影する画像圧縮レンズ)の設計製造に携わる。
その後、ドイツ・ミュンヘンに引越し、アリ(ARRI)社とも関係しながら独自の仕事をしていった。
1968年4月(Jacobsen48才)に公開されたスタンリー・キュービック監督の「2001年宇宙の旅」の製作では、特撮の技術的な供与をしたとされている。
彼の人生の中で最も大きな仕事がカナダから訪れる。
1968年、Multiscreen社のGraeme Ferguson(1929.10.07〜2021.10.07)がミュンヘンを訪れ、Jan Jacobsenと面談し65mmフィルムを使った大型カメラ製作の可能性の話合いを持った。
Multiscreen社(IMAX社)側の意向は、15パーフォレーションカメラの開発であった。15パーフォのカメラが製作不可能であれば、せめて8パーフォのカメラでもよく、これを15パーフォに拡大プリントしてオリジナルをおこし、これからリリースプリントを作る腹づもりであった。
Jacobsenの回答は、そんな面倒なことをしなくても15パーフォのカメラは作れる、というものであった。
Jacobsenは、コペンハーゲンの知人の作業所に移って4ヶ月でカメラを作り上げた。
15パーフォ送りの心臓部は、彼がかつて手かげた7- 1/2パーフォのムーブメントであり、これをタンデムにし、相互に7.5パーフォを掻き落として合計15パーフォを送る構造であった。
完成したカメラは、1968年の12月にカナダ・オンタリオ州のGaltにあるMultscreen社に届けられた。
その一ヶ月後、アフリカでの野生動物を撮影した処女フィルムが上がった。
大阪万国博で上映する映画「虎の仔」の誕生であった。
Jan JacobsenのIMAXシステムへの功績は大きい。
たった4ヶ月でカメラの設計・製造を終え、しかもカメラ重量が25kgと想像以上の軽量に仕上げた。
その上に彼の作ったカメラは堅牢であった。
初号機のカメラは、スカイダイビングの撮影中に事故にあって破壊してしまったものの、その後の12台を越すカメラは30年以上を経ても使い続けられ、16台のカメラがスペースシャトル経由で宇宙に飛び立っていった。
 
 
IMAXの画像は、現在のデジタル画像に換算すると18Kに相当すると言われています。
IMAXは、開発当初、各種のイベントでの目玉催しとして上映されているのみで、1970年の大阪万国博覧会以降の常設館は地元トロントとワシントン州のスポーカン(Spokane)など数えるほどしかありませんでした。
1990年代より世界各地でボツボツと常設館が置かれるようになり、上映する作品も増えて行きました。
IMAXシアターは、2020年時点で北米を中心に450館以上あるそうです。
日本では36館あり、閉館した25館を含め累計61館に上ります。
現在では、70mmフィルムでの上映館は少なくなって、日本での常設館は鹿児島私立科学館のIMAX DOMEのみとなり、他の35館は、デジタルシアター(4K相当のデジタルプロジェクター)となっています。
フィルムでの上映は、俄然臨場感と迫力はあるものの、フィルム上映を維持していくのは大変なようです。
 
IMAXシステムを使って作られた最近の映画は、Christopher Nolan(クリストファー・ノーラン、1970.07.30 - )監督が手がけた2017年作品「Dunkirk」(ダンケルク)(ワーナーブラザーズ配給、アカデミー賞編集賞、録音賞、音響編集賞受賞)です。
ノーラン監督は、IMAXによる映画制作が好きで、彼の手がけた作品、ダークナイト(2008)、ダークナイトライジング(2012)、インターステラー(2014)、TENET テネット(2020)、オッペンハイマー(2023)は、IMAXカメラで撮影されたものです。
IMAXシステムによる映画制作は仕掛けが大変で、「Dunkirk」で使われた軽量カメラ = IMAX MkII LWの重さは25kgあり、台座、その操作手順、照明装置、使用するフィルム代、現像代、プリント代を考えると撮影失敗も厳しいことから、制作を指揮するプロデューサや監督は65mm/70mmフィルムでの撮影を避け、IMAXデジタルに移行する傾向があります。
ノーラン監督は、それを嫌い全編65mmフィルムによる制作を旨とし、CG(コンピュータグラフィクス)も極力避ける作風で知られています。
IMAXカメラを使うカメラマンは、相当に屈強で腕力に自信がある人でないと勤まりません。
おそらく日本ではこれを使いこなせるスタッフも、監督も、そして財力もないのではないかと思わせます。
カメラは、基本的に製造販売は行わずレンタルのみのようで、一日当たりのレンタル料金は120万円ほどなので1億円の資産価値のあるカメラのようです。
65mm/70mm映画フィルムを作るコダック社は、ノーラン監督から長期フィルム供給の契約を交わすことができたので、ビジネス継続の一定の算段ができたと報道されました(富士フイルムは、2012年に映画フィルム製造を終了して撤退しています。しかし、135タイプのフィルムは製造を継続しています)。
IMAXに使われる65mm/70mmフィルムの材質は、Estar(ポリエステルベースフィルム、マイラーフィルム)が使われています。
このフィルムはとても強靱です。ペットボトルに使われているPET(ポリエチレンテレフタレート)も仲間に入ります。
この材質のフィルム使うとカメラの掻き落としクローやレジストレーションピンが折れてしまうと言われていて、一般ユースにはあまり使われて来ませんでした。
現像機に対してもフィルムが強すぎるので、フィルムが詰まると現像機のメカ部のダメージが大きいと言われてきました。
しかし、70mmフィルムの大画面横送りとなると、映写での耐久性も問題となるため強靱なEstarベースフィルムが採用されたものと思います。
IMAXカメラには、1000ftのフィルム(重量5.3Kg)が装てんでき、3分弱の撮影ができます。
 
また、2022年5月には、6台のIMAXを使用したジェット戦闘機の映画「Top Gun Meveric」(トム・クルーズ主演)(プロデューサー:ジェームズ・ブラッカイマー、監督:ジョセフ・コシンスキー)が上映されました。(ただし、6台のIMAXカメラはフィルムカメラではなく、SONYのデジタルカメラでした。)
この映画は、1986年に公開された「Top Gun」の続編とも言えるべきもので、戦闘機(F/A-18E/F スーパーホーネット、マクドネル・ダグラス社製)にIMAXカメラを載せて、俳優自らが戦闘機を操るという信じられない撮影を行っています。
1986年の作品は、35mmフィルムが使われ、戦闘機のコップピットには35mm高速度カメラ(4パーフォ200コマ/秒、Photo-Sonics 4ML)が使われたことを記憶しています。
 
IMAXの画像は、1フレーム70mm x 52mmです。
これをデジタル画像に換算するとフィルムの場合中心部の解像度は70本/mm程度あるので、これを横方向70mmのイメージサイズで解像度を割り出すと、
70(白黒本/ mm) x 2 (本/白黒) x 70 mm x 2 (baye換算)r = 19.6k 画素/1水平ライン
と換算されます。
bayer換算(モザイク画像)の2を掛けたのは、単板CMOS素子はRGBのモザイクになっていて、複数の画素で色情報得て輝度情報は飛び飛びになるため、Bayer撮像素子は画素数分の解像力を持ち合わせていないため、フィルム画像に2倍を掛け合わせています。
実際は、画像の中心部のみがこの程度のデジタル画素数に換算され、周辺部はこれだけの解像力は持ち得ないと判断します。これはフィルムの問題ではなく、使用するレンズの性能に負うところです。
しかし、映画鑑賞上は中心部にフォーカスが合っていれば周辺部はそれほどの解像力は重視されず、周辺部は画質が落ちても人の動体視力の関係上大きな問題とはならず、注視している部位がきめ細かであれば周囲部はボケていても大きな問題となりません。
撮影レンズは周辺部の解像力は中心部よりも落ち、スクリーンに投影しても周辺部は投影レンズの性能やスクリーンの張り具合でボケや歪みは出ます。
IMAXのレンズは、ハッセルブラッドカメラで使われる大判レンズが使われているようです。
1970年の大阪万博で開発されたカメラのレンズマウントは、Bronicaマウント(日本の中判カメラであるブロニカのマウント)が採用されていました。
ズームレンズの使用はさすがに無いようで、大判カメラレンズでズームレンズがあるのは聞いたことがありません。
IMAX撮影も、したがって、単玉レンズの使用がほとんどで、主にf40mmとかf30mmの広角レンズが使われているようです。
これらのレンズの撮影視野角は、対角線で94度から110度となります。
 
IMAXデジタルカメラには、Arri社のAlexa IMAX(6560 x 3102画素)が使われています。
IMAX 3Dでは、Vision Research社のPhantom65(4096 x 2440画素)が2台使われました。
18K相当のフィルムの画質に比べるとデジタルは劣る感じが否めませんけれど、総合的に考えるとデジタルのほうが運用しやすいと思います。
これらのデジタルカメラは、35mmフィルム映画でも置き換えて使われているカメラなので、これ(4K程度のカメラ)を使うのであればIMAXの利点はあまりなくなるのではないかと思えてしまいます。
IMAXデジタルでは、ポスト処理で画像補間を行って4Kカメラの画像を8K相当以上にしているようにも感じます。
 
● 2023年現在の映画フィルム製造 (2023.06.09記)
Kodak(米国ニューヨーク州Rochester)社では、2023年現在も映画フィルムを製造している、という細かい情報がYouTubeに載っていました。
(Eastman Kodak社は、1892年にニューヨーク州Rochesterで創業し、映像フィルムメーカーとして世界一の規模で経営を行ってきました。2000年代からのデジタル映像ブームでは、先頭を走っていたにも関わらず波に乗ることができず、2012年にChapter 11の破産申請をしました。2013年にはKodakのフィルム部門がスピンオフして「Kodak alaris」社を設立し、銀塩フィルム製造とデジタル画像ソフトウェア/ハードウェアを引き続き運営することになりました。)
コダックのフィルム製造の様子を詳しく知るクリップが以下のものです。このサイトは、科学映像(特にハイスピードカメラを使った高速現象を撮影する)分野で興味あるトピックを提供しているサイトです。
 
コダックはどのようにフィルムを作るのですか?(コダックファクトリーツアー パート1/3) - Smarter Every Day 271(2022)
 
コダックはどのようにフィルムを作るのですか?(コダックファクトリーツアー パート2/3) - Smarter Every Day 275(2022)
 
How Does Kodak Make Film? - Smarter Every Day 286(2023)
 
Kodak Film Factory Tour (2017)
 

 

 

 
 
● IMAXの映写方式 - Rolling Loog方式
IMAXの映写機は、通常のパーフォレーション掻き落とし方式と異なりローリングループ(Rolling Loop)式を用いています。
70mmフィルムの大きなサイズで、しかも一画面15パーフォレーションと一般70mmフィルム映画の3倍以上の面積を持つフィルムを送るIMAXでは、通常の掻き落とし式によって何度もフィルムを上映していると、掻き落とし爪によってパーフォレーションがズタズタになってしまいます。
パーフォレーションを使わない方法が考え出されました。フィルムベースは強靱なマイラーフィルム(ポリエステルベースフィルム)が使われています。
ローリングループとは、走行時にフィルムを波のような"うねり"(ループ)を作り、その"うねり"によってフィルムを搬送させる方式です。
この方式は、映像を写し出すアパーチャーの直前にうねり(ループ)を作る機構を設け、アパーチャーを通過した後はそのうねりを解除させる構造としています。
アパーチャー部分は、うねりが通過している時はまともに見られない歪んだ画像になるものの、うねりが通過した後、次のうねりが来るまではフィルム移動がないため静止状態を続けます。
その静止状態の時にシャッターを開けて光を通し上映します。
映写機には、静止精度を高めるためにregistration pin (レジストレーションピン)をパーフォレーションに入れています。(レジストレーションピンは、ループを作る上でも大切な働きをしています。)
フィルムがアパーチャー上で静止している間に映写シャッターを開けて光をフィルムに通しスクリーンに投射させます。
ループがアパーチャーを通過するときは、シャッターが閉じていて映像を投射しないようにしています。
この方式は、従来の掻き落とし爪を使ったフィルム送りよりもフィルムにストレス(特にフィルムパーフォレーション)をかけないため、70mm15パーフォレーションの送り機構としては良好な結果となりました。
アパーチャ部は、フィルムが移動していない静止中はフィルム面をフラットにするため真空装置でフィルムをアパーチャ部に吸着させ、なおかつ先に説明したようにレジストレーションピンが挿入されて位置精度を高めています。
この操作を1秒間に24回繰り返して映写をしています。
 
下図が、実際のIMAXの映写装置の心臓部であるRolling Loop機構部です。
上図で説明したものは平面送りでしたが、実用版では回転送り機構(ローリング機構)を組み込んでいます。ローリングしながらループを作るので、ローリングループと呼んでいます。
上図は、IMAXの映写機を開発したWilliam Shaw氏が1970年に書き残した技術資料をもとに再画描をおこなったものです。
この図は試作品のようで、1970年に大阪万国博覧会で実際に使われたものは、ローターの大きさが37.5"(952.5mm径)で、これに8ギャップ(ループを作る部位)を配置し、180回転/分で24コマ/秒の映写を行っていました。
上図は4ギャップとなっていますからローター径は大阪万博のものより2倍ほど小さく、その分ローターの回転数は2倍だったと思われます。
この機構を見ると、フィルムがローターに入る部位と出口の2つにスプロケットがあり、フィルムがそれに噛み合って(しっかりとした送りスピードで)ロータ部に入り、そして出て行きます。
ローターシューズとステーターレールには、フィルムが通るすき間が設けられています。
狭すぎても抵抗が起きてフィルムにキズをつけますし、広すぎても走行中にフィルムが踊ってうまく走行できなくなります。
ステーターレールの一端(上図における下側部)には映写光軸に沿って開口部(アパーチャー)が設けられていて、ここからフィルム像がスクリーンに投射されるようになっています。
その開口部分でフィルムを静止させる必要があるので、レジストレーションピンが設けられています。
入口スプロケットから送り込まれるフィルムは、下流にあるレジストレーションピン(上図の時計方向で短針6時)で動きがストップするため、タイミングを合わせて回転しているギャップ部のローターシューズ(上図の時計方向で短針8時30分)にすくわれてループを作ります。
ギャップの半時計方向回転とともにギャップの中に入ったフィルムループは成長していき、レジストレーションピンを抜けると(上図時計方向で短針5時30分から3時)小さくなっていきます。
レジストレーションピンにパーフォレーションを確実に入れければならないため、ループの長さは精度良く管理されなければなりません。
ループを作る構造やループの高さ、その幅などを決定づける部品を作るにあたっては、細かい実験と試行錯誤、数値計算が行われたようです。
特に、入口スプロケットからギャップに入るフィルムの進入角度と初期の山なり形成は重要で、ここでループの成長や大きさが変わってくるため、フィルムを送り込む部品の形状やジェットエアを使ってフィルムを押す工夫がなされました。
また、レジストレーションピンに入る前段階に薄いパイロットピンを配置して、パーフォレーションがより確実に挿入される工夫もなされたようです。
この方式によって、フィルム映写時の像の止まり精度は0.03%(走行方向の揺れは0.003インチ = 0.076mm)と極めて精度の高いものになり、かつ、フィルムへの走行ダメージも極めて少なくなり、5000回以上の映写においてパーフォレーションの損傷は最小限であったと言われています。
 
アパーチャ部:
映写を行うアパーチャ部(レジストレーションピンがある開口部、上図の時計方向で6時)には、像を映し出すためのアパーチャプレートとフィルムをアパーチャプレートに吸引させるための真空装置、それと球面補正のための2枚組の補整光学部が組み込まれていました。
アパーチャ部は平面とはならず、ローターの曲率に合わせた構造であるため、スクリーンに映すための補整光学系が必要だったようです。
 
シャッターと光源:
フィルムループを作るギャップ部は遮光部(メインシャッター)がもうけられていて、映写ランプからの光源がフィルムに投射されないようになっていました。
メインシャッターと90度ズレた位置にもう一つのシャッタ(フリッカーシャッターが)があって、この部位は映写光源の光を通すシャッタとなっているようです。
ただし、フリッカーシャッターは開口部と遮光部が交互に2組ずつ設けられ、シャッターがローターの回転によって投射開口部(アパーチャ)を横切るときに2回シャッターを切っていました。
昔から24コマ/秒再生の映写機は1コマ2回のシャッターを切って1秒間48回のシャッターを行っていました。
24Hzではチラツキが大きいのです。
IMAXもそれを踏襲して48回のシャッターを行っていました。
けれどそのシャッターは48等分感覚ではなく、1/48秒間の1コマ映写を2分割、つまり96Hzでシャッターを切っています。(下図参照)。
1コマが1/24秒ではなくなぜ1/48秒なのかと言えば、フィルムを送るために1/24秒の半分、つまり1/48秒を当てなくてはならなため、光を当てるのは1コマ1/48秒となり、その時間で2回のシャッターを切るので24Hz間隔で2シャッター@96Hzの映写となります。
 
 
シャッターの働きと光源の配置はこの図からは読み取れません。
当時のIMAXの映写機の映写ランプは、20kW、25kW、30kWの3種類のキセノンショートアークランプが用意されていました。
500Wや1kWのクセノンランプは見たことがありますが、25kWのランプは見たことがありません。
とてもたくさんの電力を消費します。発熱もすごい量です。
10リットル(10kg重)の常温の水を7秒で沸騰させてしまいます。
逆説的には、それだけの水を循環させてランプを冷やさなければランプは数分と持たずランプ自らが焼損してしまいます。
この光源を使って、スクリーン中央部を25 lm/ft2(フート・ランベルト)(86 nt、約1,500ルクス)で照射できたそうです。
 
光源(キセノンランプ)は、上図平面図の上部から中心部めがけて落射し、反射ミラーで90度折り曲げられて開口部に導かれ、フィルムを照射します。
大光量の投射光とキャノンの開発したf=150mm、f/2.0レンズを使って、富士グループパビリオンの43' x 62' (13.1m x 18.9m)のスクリーンに投影されました。
 
ローリングループ方式は、フィルムに無理な負荷がかからない良好な方式だとして、IMAXの成功以降いろいろな人達が映写機に限らず撮影用カメラにも応用しようとしていろいろな試みがなされて来たようですが、特許が切れてからもその種のフィルム機器が現れることはありませんでした。
アイデアはすばらしいけれど、実用化には相当な問題が山積していることがうかがい知れます。
 
 
 
■ 小型簡易白黒現像機 (1998.09.07) 右の写真は、1980年代から1990年代に使っていた卓上フィルム現像機です。(写真は1985年に撮影)。
16mm白黒ネガフィルム用のもので英国製だったと記憶しています。16mm映画フィルムの現像を自家現像するのはまことにやっかいな作業です。
30m(100ft)もの長いフィルムを暗室で現像するのは結構骨の折れる作業でした。
小型白黒現像機はコンパクトで400ft(120m)までの白黒フィルムを自動的に現像してくれまして。
液漕は2リットルのタンクで以下の5槽を持っていました。
 
現像タンク→水洗タンク→定着タンク→水洗タンク→乾燥
 
電源はAC100V15A。
水道のある近くにおいて現像処理ができます。
現像タンクが2リットルと小さいので簡単に現像液を溶くことができます。
現像時間は、100ft(30m)で約1時間です。
30m/1hr = 8.3mm/秒のフィルム送りということになります。 
 
 
 
 トップに戻る

【フィルムの特性】(1998.09.07)(2020.05.13追記)
 
  
 
カラーフィルムは長期保存で退色する恐れがある 白黒フィルムは、金属銀が残っているため非常に安定して保存できますが、リバーサルフィルムは、定着工程で全ての銀がすべて洗い流され、イオン銀で2次反応した発色カプラだけが残ります。
この発色カプラーは、紫外線などの強い光に弱く、太陽光などに長期間さらされると退色します。
フィルムの長期保存には、湿気と温度を遮断し暗室で保存する必要があります。
 
 
 
濃度情報 フィルム像の記録濃度は、ネガフィルムで10ビット = 1:1000程度(例えば、100 ルクス〜10,000 ルクス)、リバーサルフィルムで7ビット = 1:100程度(例えば、100 ルクス〜10,00 ルクス)を記録することができます。
記録媒体としては記録速度も速くダイナミックレンジも広くとれます。
 
フィルムでは、濃度を表す単位にD1.0と言う表し方をし、ログ(Log)関数表示となります。
DはDensity(濃度)の略です。
D濃度とフィルム上の透過率T(%)の関係は次の通りです。
 
   T = 1/10 D x 100
        T: フィルム上の透過率 (%)
        D:フィルム濃度 (スキャナー濃度) 
D0.0(濃度ゼロ)は、フィルムに何も濃度が無いことですから像が写っていない素抜けの透明フィルム(透過率100%)を表します。 D1.0は10%の光を透過する濃度を表します。 これは、濃度が1増す毎に透過率が1/10に減り、0.3毎に1/2ずつ減ります。 フィルム濃度は、フィルム濃度計を使ってD値を読みとります。
 
下図が、一般的なフィルム特性曲線です。
光の量に対して銀塩がどのような濃度をとるのかという特性曲線です。
図の横軸がフィルムに照射される光(白色光)の量で、露光量E(照度と時間をかけ合わせたエネルギー量)を対数に直した値です。
縦軸は、ネガフィルムの濃度を対数値で表しています。
この図から、照射露光量に対するフィルム濃度は、なだらかな山なりの曲線になっていることがわかります。
露光量は、ある程度当てないとフィルムに濃度として乗らず、また必要以上の露光量を与えるとそれ以上は濃度を増すことができず、返って濃度が減ってしまうことを示しています(ソラリゼーション)。
 
露光量Eは、フィルム面に当たる照度と露光時間の積で、光エネルギー量に相当します。
これにLog対数を当てていますから、LogE = -3 は、1/1000ルクス・秒を表し、LogE = 3.0 は、1000ルクス・秒を表します。
こうしてみると、フィルム特性曲線は両対数曲線となります。
上の表にγ(ガンマ)と書かれてありますが、これは、露光量に対するフィルム濃度の傾きを表していることがわかります。
γ=1というのは露光量と濃度が1:1に対応している事になります。
一般的なフィルムは、γが0.8になることをすすめ、現像においてはγ=0.8を標準現像として、現像の仕方、フィルムの特性を紹介しています。
γが0.8というと、実際の被写体の濃淡に比べてフィルム像の陰影が0.8倍の柔らかいものに変わることになります。
科学写真を取る場合には、露光量とフィルム濃度の関係が良くわかった方がよいので曲線の直線部分に露光が入るように露出時間、レンズ絞り、光量調節、現像調整を行います。
 
露光は、カブリ濃度の近辺の「足」部や、濃度が濃い「肩」部を避けるのが一般的です。
実際に被写体の明るさの範囲(これをラチチュード = latitude)と呼んでいます。
ASA100のフィルムですと、光量比でLogEが3.0以上とれますので被写体の明るさが1:1000に及ぶ明るさの範囲をフィルム像に記録することが可能です。
つまり、フィルムスキャナーが、フィルム像の濃度を1:1000まで読みとれれば、フィルム像は1:1000の情報を得ることができます。
この階調をコンピュータ用語のビットで表すと10ビットまでの情報を持つことになります。
ちなみに、フィルム像ではなくCCDカメラ(天体観測用のCCDカメラ)は、濃度が16ビット(1:65,000)階調あるものが市販されています。
CCD素子の基板はシリコンで作られていて、シリコンは光に対して敏感で、熱による(CCD上の発熱などによる熱のばらつき)ノイズを十分に抑えれば1:100,000程度のダイナミックレンジを持ちます。
 
X線医学診断では、このフィルムを使ってX線写真を撮りこのX線フィルムから患者の診断を行っています。
これを読影(どくえい)といいますが、X線光源、フィルム特性、患者患部のデータを予め頭に入れておき、患部の微細な変化をとぎすまされた経験と勘で発見します。
特にガンの早期発見には、ほんのちょっとした異常をX線フィルムから読みとらなくてはならず、CCDカメラをはじめとした電子映像がX線フィルムの性能に追いつく2010年あたりまでX線フィルムが使われてきました(2020.05.11追記)
   
 
【ASA感度(ISO感度)】 ASA(ISO)感度の定義について述べます。
フィルムの歴史は古いので、今までいろいろな感度規格が用いられてきました。
たとえば、ドイツではDIN感度、日本でもJIS感度。英国ではBSI、ロシアではGOSTと言う具合です。
規格がたくさんあると何かと不便なので、国際規格のISOに統一されるに至っています。
ISO感度は、ASA感度(American Standard Association、この規格はANSI = American National Standards Instituteの前身であるにもかかわらず、なぜかフィルム感度だけは古いASAが生き残っている)がそのまま取り入れられました。
従って、フィルム感度のISO表示は、従来のASA感度表示と同じです。
ISO(=ASA)感度の決め方は、どのくらいの少ない光量でフィルム濃度が得られるかの目安を表します。
つまり、被写体の暗部のディテールを少ない露出で記録できる感光材が感度が高い、と考えて、上図の特性曲線の足の部分の、カブリの部分より区別がはっきりする濃度、すなわち、ベース濃度 + カブリ濃度 + 0.1( = 0.1D)が得られる○印の点の露光量Eaの逆数で感度を表すことになりました。
フィルムによっては、光を与えてもなかなか反応せず濃度がのらないものがありますが、0.1D濃度になるときの光量がフィルム感度になるというのが面白いポイントです。 フィルムは、現像によって露光に対する濃度(すなわちγ)が変わってくるので、このEaの点をもう少し厳密に定義する必要があります。
a点がLogEaより1.3大きい点(これを仮にLogEb)とし、この点で濃度が0.8になるように現像します。
こうしてγを一定にしておいてEaの値を特定し、ASA感度を求めます。ASA感度は、
 
      ASA(ISO)感度 = 0.8/Ea    ・・・(Rec -47)
 
で定義されます。
従ってASA100のフィルムは、Eaが1/125(=0.008)の時にASA100と呼ぶことができます。
これは、0.008ルクス・秒を表します。
つまり、ASA100のフィルム面に0.008ルクス・秒の光量を与えると0.1Dの濃度を得ることになります。
   
  
 
■ フィルムの解像力
 
フィルム自体の解像力は、100白黒本/mm 〜 200白黒本/mm程度の性能を持ちます。
これは、1/200mm〜1/400mm(2.5μm)の分解能に相当し、フィルムを使用する最大の利点となっています。
この解像力を求めるには精度のよいチャートをフィルムに密着させて露光させ現像します。
現像したフィルムを濃度計で計測して細かいところをどこまで分解できているかを判断して解像力を決めています。
また、特殊なものでは、ガラス板を使ったホログラフィ用の感光材では1,000白黒本/mm程度の性能を持っています。
現実的にこれらのフィルムの持つ解像力を最大限引き出すことは困難で、レンズ性能やカメラのフィルム固定精度、フィルム移動機構の安定性、フィルム面の安定性を踏まえた総合解像力という言い方でフィルムカメラの解像力を決めています。
画像の解像力評価については、「レンズについて」(http://www.anfoworld.com/Lens.html#Resolving Power)という項目にも詳しく触れていますのでここを参考にして下さい。
 
 
【MTF】(Modulation Transfer Function): フィルムの解像力を表す現実的な方法にMTFがあります。
解像力が100本あるといっても、細かい線がしっかりと記録されているかどうかが問題になります。
フィルムによってはわずかに見えるか見えないかぐらいの薄くうつっているかも知れません。
別のフィルムではしっかりときれいに写っているかも知れません。
こうした黒と白の解像力をコントラスト(濃度)で示し、横軸に解像力の周波数、縦軸にそのコントラストを表した曲線をMTFと言います。
一般に解像力が高くなると(周波数が高くなると)コントラストが低下するのが一般的ですが、フィルムやレンズによってその曲線が変わってきます。
あるものは、高い周波数で急激にコントラストが落ちたり、べつものは徐々にコントラストが低下したりします。
もちろん、解像力が高い位置までコントラストが落ちずに伸びているものもあるでしょう。
このように、画一的に周波数がいくつというよりも、MTFを用いればより詳しくフィルムやレンズの解像力特性がわかってきます。
   
 
 
■ 総合解像力
 
実際に良く使われている高速度カメラの総合解像力について触れてみます。 16mmフィルムサイズの高速度カメラは、自動車安全実験用に使われる500コマ/ 秒撮影ができる16mmフィルム掻き落とし式高速度カメラ モデル16-1PL(米国 Photo Sonics社)や、ガソリン・ディーゼル燃焼研究に使われる10,000コマ/ 秒のロータリプリズム式高速度カメラ(モデルE-10、ナック社)が良く使われます。
解像力は、カメラ内部に光学部品が無い分フィルム掻き落とし式高速度カメラ(1PL)の方が有利で、TV本に換算すると横1,200本 x 縦840本程度になります。
E-10は、カメラ内部に撮影を高速にするための回転プリズムやリレーレンズが入るため解像力が劣化し、横700本 x 縦500本程度になります。
35mmフィルム高速度カメラは、200コマ/ 秒まで撮影可能な米国 Photo Sonics社の35-4MLがあります。
画質がきれいなことからテレビコマーシャルでスローモーション撮影に使われたり、映画撮影の特撮、宇宙衛星打ち上げロケットの追跡撮影に使用されます(1970年代〜2000年)。
この種のカメラの解像力は、TV本に換算すると横2,200本 x 縦1,600本程度でハイビジョンの映像に匹敵します。
もちろんこれは高速度カメラでの話であって映画用に使われる映画カメラ、ドイツ アーノルド&リヒター社の ARRI Flex 35 BLなどは、フィルムを高速に駆動しないだけフィルムの停止精度、面精度が良くハイビジョン以上の画質を提供してくれます。
NikonやPentaxなどの35mmライカサイズのカメラは、最も手軽で最も情報力を持つものです。
その解像力は、TV本換算で横4,300本 x 縦2,900本に相当し、16mmフィルムを使ったE-10カメラの36倍の情報力になります。
このほか、70mmフィルムを使った高速度カメラ 米国 Photo Sonics社の70-10Rは、イメージサイズが56mm x 56mmありTV本換算で5,000本以上に相当します。
このカメラは、次世代ハイビジョンシステム評価用ソースとして使われています。
     
 
↑にメニューバーが現れない場合、
クリックして下さい。

 


         
 
 
■ 光の記録原理 その4 - - - 光増幅光学装置(イメージインテンシファイア = Image Intensifier)
 
 
微弱光撮影には、高速度カメラに高感度光増幅映像装置(イメージインテンシファイア = Image Intensifier)を取り付け、約100〜10,000倍程度の感度増幅させる手法があります。
イメ−ジインテンシファイア(通称I.I.=アイアイ)は、電子管の一種で光学像を電子像に変換し、電子像を蛍光面で再び可視光像に変換し、入射した光以上の光学像を取り出すものです。
I.I.で行う光増幅は、基本的に以下の式で求められます。
 
光増幅率 = 光電変換効率 x 印加電圧 x MCP電子増幅 x 蛍光効率    ・・・(Rec -48)
 
 
 
▲ 光電面(Photo Cathode)
 
上式は、I.I.の光増幅が光学像を電子像に変える光電面の量子効率と電子が加速され蛍光面まで到達するための印加電圧、及び電子が蛍光面で可視光像に変わるための蛍光効率の積で決まることを表しています。
光電面の量子効率や蛍光面の蛍光効率は、使用する材質によって異なり、光電面の材質も蛍光面の材質も1940年代以降いろいろと開発されました。
光電面の材質を表すS1やS20などは、元来アメリカEIA (Electronic Industories Associ-ation)に登録された光電デバイスの分光感度特性に付けられた番号であり、これが光電面分光感度特性の代名詞として世界的に使われています。
光電面で最も良く使われるS20マルチアルカリ光電面は、アメリカのA.H.ソマー(Sommer)( = 1930年代より1970年代に活躍、数多くの光電面を発明)が1960年代に偶然に発明した光電面で、当時としては可視光に対し非常に高感度な性能を持っていました。
高感度は主に長波長への感度の伸びによっています。
この光電面は、使用する膜材にナトリウム、カリウム等アルカリ金属を多く使用したため、マルチアルカリ光電面と呼ばれています。
S25マルチアルカリ光電面は、1971年アメリカRCA社で開発されたもので別名 ERMA(Extended Red Multi-Alkari)とも呼ばれています。
これは、通常のS20面より膜厚が5〜6倍(約150nm)厚いもので、限界波長が900nmに達しているためI.I.のみならずレーザ光検出用光電子増倍管、ウルトラナック(イメージコンバータ式高速度カメラ)に使われるなど重要な光電面になっています。
 
 
▲ 印加電圧
 
チューブ内に印加される電圧は光電面より発生した光電子に力を与え電子を加速させます。
加速された電子は蛍光面に衝突し蛍光を発します。
蛍光は電子の速度によって輝度が変わります。
従って、蛍光面輝度は同じ数の電子が当たる場合には加速電圧に比例します。
通常のI.I.の加速電圧は15,000〜17,000V程度で、次に述べるMCP(マイクロチャンネルプレート)内蔵のI.I.で6,000〜7,000V程度になっています。
電圧を上げれば電子増幅が高くなりますが、必要以上に電圧を上げてもチューブ内の真空の度合いを考慮しないとマイナス効果になります。
つまり、チューブ内に残留している分子(イオン)にもエネルギーを与え、そのイオンが蛍光面に衝突して光電面に光が入射していないのに蛍光面がノイズによって発光する問題が生じます。
これはチューブの寿命にも影響するのみならず得られる像のS/Nも悪くなります。
この値を EBI(Equivalent Background Illumination)と呼び、蛍光面単位面積当りの光束(ルーメン/cm2)で表します。
EBI は、通常のI.I.で4 x 10-11ルーメン/cm2程度であり、チューブが大きいほどこの値は不利になります。
 
 
▲ MCP(マクロチャンネルプレート = Micro Channel Plate)
 
MCP(マイクロチャンネルプレート)は、I.I.チューブ内に組み込まれる0.5mm程度の薄いガラス板で、これにφ10〜12μmの孔が無数に空けられ(φ25mmで数百万個)、両端に100V〜900Vの電圧をかけ光電面からの光電子を1,000倍程度の2次電子に増やすものです。
MCPは、比較的新しい技術で初期のI.I.にはこれが内蔵されていませんでした。
MCPの導入で光増幅が飛躍的に向上し外観もコンパクトにできるようになりました。
また、第3世代のI.I.は、形状が非常に薄くなっていて内部に電子レンズが構成されないため像歪みがありません。
MCPの欠点は、蛍光面輝度がそれを使わないI.I.よりも高くならないことと、MCPが内蔵されている分だけ解像力、階調 = ダイナミックレンジが低下することです。
蛍光面輝度は、基本的にブラウン管(CRT)の蛍光面程度の明るさ(10,000ルクス程度)を出すことが可能ですがMCPを内蔵すると1/300程度の30ルクス程度に減ってしまいます。
これは、MCPの2次電子が蛍光面を10,000ルクス程度まで明るくするだけ放出できないことを示しています。
従って明るい光を要求する高速度カメラにMCP内蔵のI.I.を接続しても撮影はできません。
MCPを内蔵した場合の解像力は、MCPから放出される電子がMCPの開口率で発散して蛍光面に到達するため、MCPと蛍光面の距離をできるだけ近付けないと蛍光面像がボヤけてしまいます。
ただし、余り近づけると高い電圧がかかっていますので絶縁不良が起きてしまいます。
高電圧がかかっている蛍光面とMCPを1/100mm程度の精度で製作する技術が確立した1970年代になって解像力のよいI.I.ができるようになりました。
 
 
▲ 蛍光面変換効率
 
蛍光面は、蛍光灯やテレビ受像機のように電子が蛍光面に衝突して光を発光するもので発光輝度、発光の色、発光のレスポンス(反応)等でいろいろな蛍光体が開発されています。
通常、蛍光面の材質を呼ぶときは、EIA (Electronic Industrial Association)に登録されている番号を使い、P11とかP20という呼び方をします。
I.I.によく使われる蛍光面は、P20と呼ばれるものとP11です。
P20は黄緑色の蛍光体で、数ある蛍光面の中でも高輝度で残像も比較的短い特徴をもっています。
P11は青色の蛍光体で残像が少なく肉眼では暗い感じがしますが写真撮影ではP20よりも感度が得られます。
I.I.を高速度カメラと接続して使う場合、この蛍光面の輝度と残像が問題になります。
高速度カメラは、10,000コマ/秒の撮影条件で、ウルトラナック(イメージコンバータ式高速度カメラ、比較的高感度のカメラ、1990 - 2000)を使う場合30,000ルクス、16mmフィルムカメラE-10(1980 - 1995)では、150,000ルクス程度の蛍光面輝度が必要です。
150,000ルクスの明るさは室内蛍光灯の明るさに相当します。
従ってE-10高速度カメラは、蛍光灯のような明るさをもつI.I.を使わなければ撮影できないことになります。
蛍光材は、明るいものほど残像が多い傾向があります。
残像とは蛍光面に電子が当たらなくなってもしばらくの間蛍光を発している現象のことで、レーダなどはこの特性を積極的に利用していますが、高速度カメラでは、次のコマ(映像)に前の像が持ち越されてしまうため的確な映像を得ることができず大きな問題になります。
特に、定格以上の電子が蛍光面に当たったときは残像が極端に長くなるため、この症状を引き起こす明るい被写体での撮影では注意が必要です。
逆に、蛍光面を短時間だけ光らせた場合の残像は、連続発光に比べ驚くほど改善できるため、第4世代のI.I.を使ってMCPを短時間シャッタリングしてP20の蛍光面残像を100μs以下に抑えることができます。
ただし、第4世代のI.I.は先にも述べたように蛍光面が構造上明るくできないため、明るくできる第1世代のI.I.と組み合わせ、2段式として高速度カメラに接続します。
1996年、英国Imco(→英国Hadland社→DRS社)の開発したILS(Intensified Lens System)は、高速度カメラ用I.I.としては画期的な製品となりました。
ILSが採用しているI.I.は、基本的に第四世代のゲート式近接型イメージインテンシファイアを用いています。
光電面・蛍光面の口径は双方φ40mmと世界最高クラスのイメージサイズを持ち、蛍光面が高速度カメラに耐えられる高輝度構造になっています。
このコンセプトにより、ウルトラナックイメージコンバータ式カメラは勿論、ハイスピードビデオ(Kodak HS4540、MEMRECAM)、16mmフィルムカメラE-10での装着が可能になりました。
 
 
 
P1
P11
P20
P22
P31
用途
レーダー
写真撮影
イメージ管
の蛍光面
カラーテレビ
オシロ
蛍光色
黄緑
黄緑
(R.G.B.)
黄緑
残光(10%)
24ms
60us
200us
25ms
600us
蛍光面最大輝度
(換算照度)
7,400ルクス
3,600ルクス
12,400ルクス
17,800ルクス
21,000ルクス
発光効率(K1)
(lumen/W)
520
137
480
520
230
発光体効率(K2)
(%)
5
17
9
6
22
エネルギー変換効率
(K1 x K2)
31
26
43
31
51
特徴
最も古い蛍光面
(スタンダード)
青色に感度あるため 写真撮影に効果。
P20の約2倍
イメージ管の 一般的蛍光面。 輝度、階調性
ともに良好
輝度最高。 残像長い。
蛍光色は白
オシロの一般的蛍光面。輝度最高。
残像長い
代表的な蛍光面材質の特徴
     
 
 トップに戻る  
 
 
● 第一世代イメージインテンシファイア
 
第一世代のI.I.は、第二次世界大戦中の1940年代、夜戦用の暗視装置の要求から米国RCA社で開発されました。
構造もシンプルで真空管 I.I. の入力に光電面、出力に蛍光面を配し、内部には電子レンズが置かれ光電面から放出された光電子が電子レンズ中央部でクロスして蛍光面に到達します。
光電面像と蛍光面像は倒立像になり、対物レンズと組み合わせて正立像を得ます。
光増幅率は、x 10〜x 200 で300ルクス程度に蛍光面輝度を高くすることができます。
高速度カメラ用に設計されたものでは蛍光灯並の輝度を持つ高輝度I.I.も製作されています。
近年のものは光電面と蛍光面に光ファイバーを使い内部を湾曲に処理して周辺の映像歪みと解像力を向上させています。
I.I.の中では安価なため今でも暗視装置(ナイトビュア)として市販されています。
 
 
● 第二世代イメージインテンシファイア
 
第二世代は、第一世代のI.I.にMCPを内蔵させ光増幅度を飛躍的に向上させたもので1960年代から1970年代にかけて開発されました。
φ10μmのファイバーを製造する技術が確立されてこのタイプのI.I.の完成を見ました。
光増幅率は、第一世代に比べ1,000倍ほど向上し微弱な光を検出する道が開かれました。
しかし、第一世代に比べMCPを使っているため蛍光面輝度が1/3程度と暗くなり、解像力も劣ります。
 
● 第三世代イメージインテンシファイア
1970年代になると、ミクロンオーダの製造技術と真空技術が発達し、光電面と蛍光面をできるだけ近づけて (近接させて)配置させる近接型I.I.が開発されました。
MCP内蔵 近接型I.I.は、第二世代のI.I.の構成から電子レンズを取り除いた形のもので、非常にコンパクトになり増幅度も第二世代のままで、像の歪みが非常に少なくなりました。
電子レンズが不用になったため光電面の像がそのまま蛍光面像となる正立像になりました。
光電面から放射された光電子がMCPを通りそのまま蛍光面に到達するためMCPを含めた光電面-蛍光面距離をできるだけ短くしないと像がボケてしまい解像力に影響を与えます。
コンパクトなため第四世代のI.I.と共に非常に良く使われています。
蛍光面輝度は、第二世代の半分程度で10〜50ルクスと暗く、CCDカメラとの接続は可能なものの、35mmスティルカメラではISO 400のフィルムを用いても約1/2秒の露光が必要な明るさで、このI.I.単体で高速度カメラと組み合わせるのは不可能です。
また、1,000コマ/秒以上の撮影では 600μs〜1ms 程度の残像が予想されるため注意が必要です。
 
● 第四世代イメージインテンシファイア
 
第四世代のI.I.は、第三世代のMCPの印加電圧をパルスモードにし希望する時間分のシャッタリングを行えるものです。
このタイプの原理・構造は、第三世代のものとほとんど同じで、違いはMCPへの印加電圧がDC(連続)かパルスモードであるかだけです。
1980年代よりMCP電圧をスイッチングするためのショートパルス高電圧スイッチング素子/回路が開発されて市販化されました。
現在では、ナノ秒のゲートパルスがかけられる高圧回路や、2MHzの高周波ゲート発振が可能な高圧パルサーが開発されています。
第四世代のI.I.は、CCDカメラと組み合わせシャッタカメラとして良く使われています。
 

 

 
↑にメニューバーが現れない場合、
クリックして下さい
 

 

 Anfoworld に戻ります。