高速度カメラ入門 Q&A (2024.01.23見直し)
 
****  本サイトは、横幅1280画素程度で閲覧下さい。横幅を大きく設定すると画像とテキストの間が空きすぎて見づらくなります。 ****
 
 目次を開く
 
 
■ 一般のビデオと高速度カメラ
■ 高速度カメラ
■ 高速度ビデオ
■ 画像処理装置
■ 3次元計測装置
 
 
【以下は別のページに移動しました】  (2000.11.20) (2012.04.16追記)
 
▲ 私の書いた参考文献
▲ ウルトラナック(高速度カメラ)を使った文献
 
 
 
 
 
一般のビデオと高速度カメラ

Q01. 普段見ているテレビは1秒間に何枚の絵を出してるの? (2001.02.26追記)(2009.05.20追記)(2011.09.24追記)

 
A01. 日本の家庭で見るテレビは、1秒間に30枚の絵を作って電波を使って送受信し、テレビジョン受像器で映し出しています。
テレビは一筆書きのように左上から右に、一段下がって左から右という形で1/30秒の間に1枚の画像を作っています(カラー画像の場合は、1/29.97秒)。
これを走査(そうさ:scanning)と言います。
厳密に言うと、30枚の絵は2つに間引きされた絵を合成して構成されているので、テレビ画面は1秒間に60枚(60フィールド)の絵を作っています。
つまり1枚の絵を作るのに半分の画面を二回にわたって送って画面を構成しています。
これをインタレース:Interlace = 編み合わせる、と言っています。
なぜこのような難しい走査を行っているのでしょう。
これには歴史的な伏線があります。
テレビ画面(といっても、ブラウン管での話)の走査する状況を想像してみましょう。
テレビ画面を作るのは1本の電子ビームで、これを左上から右下に走査して照射ビームのエネルギー密度で画面明るさを決めています。
左上の最小の画像スポットと左下の画像スポットでは1/30秒(33.3ms)の時間遅れがでます。
通常、蛍光面は電子が当たって明るく光って暗くなるまでの時間(残光時間)は、数ミリ秒から数十ミリ秒です。
こうした蛍光剤を使用したテレビ画面では電子ビームが当たっている所だけが明るくなって電子ビームが走り去ると急速に明るさを失って暗くなります。
この明るさの変動を1回の走査で抑えるのが難しくて解決策の一つとして2回に分けて画面を走査して画面のチラツキを抑えようとしたわけです。
このチラツキのことをフリッカーと言います。
NTSC方式では、1/30秒で電子ビームが上から下まで一筆書きをするの場合、上の画面と下の画面で発光している蛍光時間差が減衰時間よりも長いために画面がチカチカするフリッカーがでます。
これを抑えるために、粗い画面(第1フィールド)を最初に出して2番目(第2フィールド)で仕上げるという方式をとっているのです。
これらの取り決めは1950年代にNTSC = National Television System Committeeとして米国で規格化され、カナダ、日本、韓国が採用しました。
英国、ドイツなどの欧州はPAL(Phase Alternation by Line)という別の規格を採用しています。
NTSCの詳しい説明は、本ページQ23を参照して下さい。
現在(2000年以降)では、技術が進みデジタル映像も確立してきたのでインターレースは特に必要というわけではなくなりました。
テレビ放送規格はおいそれと簡単に変更できないため、デジタル放送が始まるまでこの方式が使われてきました。
2003年12月にデジタル放送が東京・名古屋・大阪で開始され、テレビ信号はデジタル信号によって映像を送るようになりました(2012年3月に地上アナログ放送が終了しました)。
 
■ 放送信号とビデオ信号
一般的なテレビ映像を論ずるときは、放送局から放送電波で送られてくるテレビ信号(放送用テレビ信号)と、8mmビデオカメラなどで録画して再生するビデオ信号の2種類あることに注意して下さい。
放送用のテレビ信号は、厳しい規格で出来上がっています。
これを守らないと映像を受信できなくなってしまいます。
放送信号は電波で飛ばすために、90MHz以上のRF(Radio Frequency)搬送波信号と呼ばれる基本信号に映像信号を重畳(ちょうじょう = 重ね合わせる)させます。
ビデオ信号は電波で空中を飛ばす必要が無く、放送信号に比べれば限られた範囲での使用のため独自の規格を作ることができます。
R.G.Bビデオ信号(赤、緑、青の三原色カラー信号を個々に独立して発生するビデオ信号)、ビデオのS-VHS、コンピュータのビデオ信号などはこの一例です。
また、最近はコンピュータの発達によってコンピュータの独自の規格VGA、SVGAという規格ができたり、デジタルカメラの台頭でDV(Digital Video)フォーマット、BMP(Bit Map)やTIFF(Tagged Image File Format)、JPEGなどの画像フォーマットに直接記録するための読み出し方式も出てきました。
 
■ コンピュータのビデオ画面
コンピュータモニタの仕様を見ますと、SVGA、75Hz、ノンインターレース方式などという記述があります。
これは1280x1024画素を1秒間に75回の割合で一気に描画できる能力をもったモニタであるという性能を示しています。
1/75秒で画面の任意の位置に電子ビームが当たっても、人間の目では画面全域に渡って濃淡の差がわからないことを表しています。
こうした高性能モニターが現れたのはここ1990年代後半のことです。
2000年からは液晶モニタが普及しはじめ、パソコンの画面はほとんどと言っていいくらい液晶モニタに変わりました。液晶モニタの恩恵をうけてノートパソコンが普及しました。(2024年にあっては真空管 = ブラウン管方式の画面受像機は姿を消しました。)
 
 
Q02. スナップ写真用のカメラはどのくらい速く撮影できるの?
 
A02. 想像をしてみます。「写ルンです」(1998年当時)を買って子供の運動会の写真を撮ろうとします。
フィルムを巻き上げて撮影ボタンを押します。
駆けっこの瞬間をできるだけたくさん撮りたいのですが、せいぜい2秒に1回程度の撮影が限界でしょう。
Nikon等のような35mmフィルムライカサイズのカメラでは、カメラに電動モータがついていますので少したくさんの連写ができます。
これだと1秒間に5枚から8枚の撮影ができます。
しかし、これらのカメラでは滑らかな連続画像を得ることは期待できません。
 
 
Q03. 映画カメラはどれくらいのコマ/秒で撮影しているの?(1998.2.28)
 
A03. 米国のエジソンやフランスのルミエール兄弟が発明した映画カメラは、1秒間に16枚の撮影を行っていました。
この撮影速度は経験的に求めたものです。
ちなみに、人間の眼には残像機能があってフラッシュのような閃光で実験を行うと1/10秒以下のフラッシュ時間では短いか長いかの区別がつかないそうです。
どれだけ短いフラッシュであっても暗闇で照らされた像は脳に視覚映像としてしばらくの間記憶しているようです。
この残像は、はたして網膜に輝度値として残っているのか、はたまた大脳の視覚を司る細胞でメモリされるのかよくわかっていません。
いずれにしても映画の撮影速度(当時は撮影速度=映写速度)は、人間の残像の視覚特性から経験的に求められました。
このぐらいの枚数で撮って同じ速度で映写すれば像が動いて見えるだろう、という具合です。
最初は、10コマ/秒で始められた映写速度も、物体の動きが滑らかでないため16コマ/秒に落ち着きました。
それでも映写の際には1枚の画像中にシャッタを二回切って16コマ/秒の映写で32回のシャッタを切って光の明滅を抑えていました。
フィルムの消費量を抑えたいため、撮影速度はできるだけ低く抑えたかったのです。映画フィルムの端に音を入れるようになると16コマ/秒ではどうしても音質が不安定になり、最終的に24コマ/秒に落ち着きました。
これが世界標準になりました。
従って、「釣りバカ日誌」の映画も、「ターミネータ2」も、最近話題の「タイタニック」、「スターウォーズ Episode1」も24コマ/秒で撮影して映写しています。
映画初期の無声映画「チャップリン」は16コマ/秒で撮影していました。
映写の際の24コマ/秒速度は規格ですが、撮影における24コマ/秒は通常の撮影速度であって、スローモーション映写を目的とした撮影では48〜96コマ/秒で撮影されることが多くあります。
 
 
Q04. 高速度カメラは1秒間に何枚の絵が撮れるの? (2008.06.03追記)
 
A04. 1秒間に100枚以上撮影できるカメラを「高速度カメラ = ハイスピードカメラ」と呼んでいます。
今のところ、20,000,000コマ/秒までの高速度カメラが市販されています。
また、CCDシャッタカメラ4ヶを光学的に1つに集めて光軸を同じにし、4台が同じ被写体をとらえられるようにして、少しずつ撮影のタイミングをずらしながら100,000,000コマ/秒までの撮影を行う装置もあります。
高速度カメラは、次々に画像を撮影をしなければなりませんから、フィルムであるならフィルムを速く送る機構を考えなければなりません。
高速度ビデオカメラならば、録画するビデオテープと撮像するビデオカメラ(CCD素子やCMOS素子)を同期させて、速く走査し記録しなければなりません。
2000年からは、磁気テープに代えて、DRAMに画像を直接書き込むデジタル高速度カメラが一般的になりました。
高速度カメラの歴史的なエピソードは高速度カメラの「歴史背景とトピック」を参照下さい。
市場的には、超高速度カメラ(100,000コマ/秒以上)よりも500コマ/秒〜10,000コマ/秒を持つものが高速度カメラと代名詞になっているようです。
撮影速度をあげていくと、ノイズが多くなって画質が悪くなったり、画素数が小さくなったりします。
VGA(640x480画素)程度で撮影速度が500コマ/秒〜10,000コマ/秒程度のものが、もっともよく使われる高速度カメラと言えましょう。
 
 
Q04-1. スローモーションカメラとハイスピードカメラは違うの? (2008.10.06追記)(2009.04.22追記)
 
A04-1. 同じものとみなして差し支えないでしょう。
ハイスピードカメラという言葉は、科学者やエンジニア達が好んで使い、スローモーションカメラという言葉は、映画、テレビカメラに従事する人たちが好んで使っています。
得られた画像がゆっくりと動くいて再生できるという観点からスローモーションカメラと言い、方や、カメラがすごく速く駆動する(フィルムを速く送る、ビデオテープを高速で録画する、CMOS素子を高速で走査する)という意味でハイスピードカメラと言う、その違いです。
最近テレビで高速度カメラの映像をよく見ますが、コメンテータ達はみなスーパースローモーションカメラなどと言っています。
その言葉を使う裏には、撮影手法上のことには興味がなく、見え方に注力している意識がはっきり見て取れます。
科学分野の人は、高速現象を撮るために、いかに高速でサンプリングできる機械を使うかという意識が強いですから、高速度カメラとかハイスピードカメラという言い方をします。
ちなみに、高速度カメラ、高速カメラ、ハイスピードカメラ、高速度ビデオカメラ、高速ビデオカメラ、高速度デジタルビデオカメラなどの言い方がありますが、どれが正しいかははっきりしていません。
私なりの判断で、高速度カメラ(High Speed Camera)が最も認知された言葉だと思っています。
 
 
Q04-2. 高速度カメラ、ハイスピードカメラ、高速カメラ、スーパーモーションカメラ、どれが正しい言い方なの? (2009.05.20)
 
A04-2. これが正しい、という正統な言い方はありません。
歴史的にカメラの源流はカメラオブスキュラから出発しました。
銀塩フィルムができてフィルムカメラとなり、カメラと言えばフィルムカメラを指すようになりました。
映画カメラは、通常のカメラと区別してMotion Picture Cameraと呼ばれ、一般的には親しみを込めてMovie Camera、Cine Cameraと呼ばれるようになりました。
高速度カメラは、映画フィルムを高速度で駆動したため、High Speed Motion Picture Cameraと呼ばれるようになり、一般的にはこれを短くして、High Speed Cameraと呼ばれていました。
1980年までは、ハイスピードカメラと言えばフィルムを使ったカメラでした。
1980年代に入って、ビデオテープを使った高速度ビデオカメラが出ました。
当時電子画像は新参者だったので、これらは、High Speed Video Cameraと呼ばれていました。
2000年になると、ビデオ技術が格段に向上しフィルムカメラの性能を凌駕してしまったので、高速度ビデオカメラが高速度カメラの代名詞となりました。
 スローモーションカメラという言い方は、高速度カメラを作ってきたカメラメーカで使う言葉ではなく、利用する側(カメラマン)が使う言葉です。
一般のカメラよりもゆっくりと現象を撮影できるのでこの言葉が使われています。
 
 
Q04-3. フレーミングカメラとストリークカメラとどう違うの? (2011.09.24)(2014.06.10追記)
 
A04-3. フレーミングカメラは、Framing Cameraと言い一般の映画カメラやビデオカメラを指します。
ストリークカメラは、Streak Cameraと言い短い時間精度を求める学術研究に使われるカメラを指します。
ストリークカメラには、スリットカメラとか流し写真カメラとかSmea Camera(スミアカメラ)などもこのグループに入ります。
1990年に入るとCCD素子を使ったワンララインだけを撮像するラインスキャンカメラが現れて、スキャナーや生産ラインの検査画像装置に使われるようになりました。
ラインスキャンカメラの対語としてエリアスキャンカメラという言葉もできました。
エリアスキャンカメラは、通常のカメラのことです。
 
 
Q05. たくさん速く撮影ができると何かメリットがあるの?
 
A05. たった1枚の写真よりも、一度にたくさんの映像を見た方が現象を良く理解できます。
たしかに、1枚の決定的瞬間は非常に魅力的な情報を与えてくれますが、それを得るためには数多くの試行錯誤を経て撮影を行わなければならず、努力と忍耐が要求されます。
現象を科学的にとらえようとするとき、肉眼では認識し得ない速い動きに数多く出会います。
これを理解するためには映像が最も手っ取り早い方法です。
写真計測の出発点であった英国の写真家エドワード・マイブリッジの馬の疾駆写真も、人間の目では捉えられなかった4つ足が宙に浮く瞬間をとらえることが目的でした。
1/1000秒(1ms)、1/1,000,000秒(1μ秒)で終わってしまう現象も数多くあります。
それらの複雑に絡み合った現象を解き明かして行く過程では、高速度カメラは必要不可欠な装置になります。
宇宙開発、原子力開発、自動車安全実験、製造ラインでのマシントラブル、スポーツサイエンスなど分野は多岐にわたっています。
詳細は、画像計測事始め歴史背景とトピックを参照して下さい。
 
 
Q06. なぜカメラレンズにはたくさんのレンズマウントがあるの? (2002.01.13)(2009.05.20追記)
 
A06. カメラは、レンズ製造者の付属品であったので、基本的にはレンズメーカの数だけレンズマウントがありました。
カメラレンズをカメラ本体を装着する部位をレンズマウントと呼んでいます。
レンズマウントは、大きく分けてねじ込み式のスクリューマウントと、ワンタッチで装着するバヨネットマウントタイプの2種類があります。よく使われているレンズマウントには、
 
・F-マウント(エフ・マウント)
・C-マウント(シー・マウント)
・ENGマウント(イーエヌジー・マウント)
・アリマウント
 
等があります。レンズマウントは、いろいろなレンズをカメラに取り付ける際に簡単に装着できるように考え出されたもので、カメラメーカーが主導になって作られました。
カメラメーカ間では同じマウントでレンズを作ろうという機運がなかったので、カメラ毎にマウントが作られるという歴史的な経緯をたどっています。
したがって、レンズマウントは、カメラメーカ、レンズメーカーで強い力を持っていた所が生き残っていると考えて良いでしょう。
現在、計測の分野で使われているレンズマウントでは、
 
・ ニコン(旧日本光学)が開発した F-マウント
・ 16mm映画フィルムカメラ用に開発され、産業用テレビカメラ(多くの高速度カメラ)に採用されている Cマウント
・ 放送局用のビデオカメラに採用されている ENGマウント
 
の3種類を覚えておけば良いでしょう。
また、これらのマウントも時代の変遷とともに変更を余儀なくされてきました。
 
■ F マウント (2008.06.13追記)
たとえば、ニコンが開発したFマウントは1959年にニコンFという一眼レフフィルムカメラに採用されました。
以後60年が経っています。
その間、広角レンズの登場やズームレンズの開発、オートフォーカスの開発とレンズマウントを介してレンズに情報を送ったりもらったりする機構が追加されました。
それでもFマウントという規格を守りながら時代の要求に対応したのです。
したがって、Fマウントと言っても差し障りのない範囲で構造が変更されています。
Fマウント(カメラ側)。
マウントに3つの爪があり、レンズ側の爪を間にいれて回転させると簡単に装着できる。
Cマウント(カメラ側)。
ねじ込み式のレンズマウント。インチ規格で作られた古い規格。現在も一般的なレンズマウントとして使われている。
なぜ我々の高速度カメラや産業用ビデオカメラで一眼レフフィルムカメラのFマウントが使われるのでしょうか? 
ペンタックスKマウントでも良いでしょうし、キャノンマウントでもミノルタマウント(現ソニー)でも、はたまたライカマウントでも良さそうなのに、我々はFマウントを良く使います。私が想像するのは、以下の理由です。
 
  1. 1960年代から交換レンズ用として日本光学(現ニコン)が発売していた
    レンズは、品数が多く品質も良かった。明るいレンズもたくさんあった。
  2. 16mm映画カメラ、高速度カメラを使うユーザには科学者・研究究者が
    多く、研究室には 多くのニコンレンズがあった。
  3. ニッコールレンズ(Fマウントを装備したニコンレンズ)は、F-Cマウントと
    いうアダプタを使ってユーザーが簡単にCマウントレンズに変換して流用する
    ことができた。
  4. 長い間マウント構造を変更しなかったのでユーザが安心して使うことができ
    た。
 
■ C マウント
Cマウントは、16mm映画用レンズとして登場した古い規格のレンズマウントです。
マウントはねじ込み式で、ネジの呼び径とピッチがインチサイズになっています。
古い古い規格のレンズが現在も生き続け、昨今のデジタルカメラの興隆で、ますます盛んに作られているレンズです。
Cマウントレンズは、ねじ込み口径が1インチ(φ25.4mm)でピッチが1インチあたり32山という規格です。
当時、Cマウントの他にも、どうもAマウント、Bマウントというのがあったようです。
その規格はどのようなものかわかりませんが、Dマウントというのもありました。
Dマウントは8mmフィルムカメラ(8mmビデオではない、8mmフィルムカメラ)用に作られたレンズマウントで、口径が5/8インチ(15.875mm)で1インチあたり32山のピッチをもったスクリューマウントです。
 
いずれにしても、時代の流れの中でCマウントが生き残った、というわけです。
ただ、最近はCCD撮像素子(CMOS撮像素子)サイズが小さくなってCマウントレンズでも撮像素子サイズによって使い分けているレンズが多くなっています。
例えば、1インチタイプ用レンズ、2/3インチタイプ用レンズ、1/2インチタイプ用、という具合です。
小さいサイズの撮像素子用のレンズで大きい撮像素子を持ったカメラに装着すると、撮像面の周辺が写らない(イメージサークルが小さいためにケラレる)という不具合が生じます。
また、同じCマウントレンズの仲間で、もっと小型にレンズを設計するために、フランジバックを短く詰めたCSマウントレンズが登場しました。
フランジバックとは、レンズのマウント部の付け根(ここをレンズのフランジという)から撮像素子面までの距離のことを言います。
この距離はレンズを無限遠(∞)にした状態で表します。
CSマウントレンズは、1/3インチ、1/2インチフォーマットの小型CCDの対応のために生まれたコンパクトなレンズマウントで、ネジ径は1インチでピッチ32山とCマウントと同じですが、フランジバックが12.50mmとCマウントレンズより5.026mmほど短くなってます。
 
■ ENG マウント
ENGマウントとは、放送業界の3CCDカラービデオカメラズームレンズ用に採用されたバヨネットタイプのマウントです。
このマウントレンズの特徴は、フランジバックが長いことがです。
カメラレンズと撮像素子の間に分光プリズム(ダイクロイックミラー)が入っているために従来からあったCマウントレンズではフランジバックが短くて流用できず、フランジバックが長くてダイクロイックミラー分光素子が入っても特性上品質が保たれるように開発されました。
ズームレンズ用としての位置づけが強いマウントです。
ソニーと日本ビクターが、それぞれ独自のバヨネットマウント式ENGマウントを開発し、レンズメーカがそのマウントを取り付けたズームレンズを供給していましたが、近年ではENGマウントと言えばソニーの2/3インチバヨネットマウントレンズを指すようになりました。
 
 
Q07. デジタルカメラって何? なにがデジタルなの? (2006.02.04)(2009.05.20)(2024.01.21追記)
 
A07. デジタルという言葉が使われる根底には、デジタルでないものがあることを意味しています。
時計にしても、デジタル時計が製造される以前にはアナログ時計がありました。
振り子形式のネジ巻き時計がアナログ時計の典型的なものです。
もっと古くは、日時計、砂時計、水時計があります。
デジタル時計は、電子回路によってパルスを発生し、その数を数えて時を刻むものです。
デジタル時計の中には水晶発振子が入っているものがあり、このタイプでは水晶の正確な発振パルスで時を刻み、そのカウントを数値表示するものです。
音楽録音を考えてみます。音声信号の強度を磁性体テープに磁力の強弱に変換させる記録方式をアナログ録音といい、音声の流れを細かく区切って音の強さを数値に置き換えて数値データをそのまま記録する方式をデジタル録音と言います。
カメラにおいても、デジタルカメラの前はデジタルではないカメラがありました。
ハロゲン銀を使ったフィルムカメラがデジタルではないカメラでした。
テレビで言うなら、1/2インチのVHSテープに録画した映像信号がアナログビデオ信号でした。
デジタル映像はコンピュータ(デジタル電子技術)の進歩とともに急速に発展します。
音声信号のデジタル化を音の強弱を時間軸に従って細切れ(サンプリング)したように、映像のデジタル化は、一枚の画像を細かいメッシュに区切って一つ一つのエレメントで構成するようにしました。
その一つのエレメントを、画素(がそ = pixel、ピクセル)と呼びました。
画素は、座標位置と濃度(色)情報が数値で特定されています。濃度(明るさ)情報は、通常は黒を0とし、白を255として8ビットの階調にわけて数値化しています。
カラー情報は、三原色の明るさをそれぞれ8ビットで割り当てますので総合すると3ビットの3倍の24ビット(16,780,000色)の色情報となります。
このようにして、画像を細かくメッシュ状にわけて数値化することにより、デジタル画像ができあがりました。
デジタル画像の大きな特徴は、保存、およびコピーを繰り返しても画像の劣化がないということです。
そして、パソコンでの保存、再生、離れた場所への通信と威力を発揮し、現在(2006年)では、画像と言えばデジタル画像をさすことが当たり前のようになりました。
仕事で写真を残す際にも家庭でアルバムを作る時もデジカメを使って、CDやDVDにデジタル画像を保存する時代になり、2024年現在はSDカード、SSD、クラウドに保存するに至っています。
 
 
Q08. 画像ってどうやって保存するの? (2007.07.25)(2009.05.20)(2024.01.21追記)
 
A08. 写真などの画像は身近にあるので画像をどのように保存するかはおおよそ理解できると思います。
画像ファイルは、幾多の歴史的変遷を経て淘汰され、標準化されて来ています。
2000年から2024年に至るまで静止画像の標準はJPEGでした。デジタル画像ができた時はBMP、TIFFファイルが標準で、動画ではDV、AVI、最近はMP4ファイルが一般的です。
デジタル画像が普及する前は、銀塩フィルムカメラによる画像の保存が一般的でした。
こうした画像(写真)は、35mmフィルムや印画紙に焼き付けてアルバムという形で保存し、閲覧を行っていました。
1990年以降、コンピュータの発展とCCDカメラの普及、さらに、CD、DVD、HDD(磁気ディスク)、BD(ブルーレイ)、フラッシュメモリによるUSBメモリ、SDカードが安価になって、デジタル画像が急速に普及しました。
 
 
Q09. フィルムカメラは無くなるの? (2007.07.24)(2009.05.20追記)
 
A09. 正直なところ、一般的な用途ではフィルムの利用価値はほとんど無くなってきていると言えるでしょう。
現在(2007年)では、(銀塩)フィルムの利点よりもデジタルカメラのメリットの方が圧倒的に大きいものになりました。
そのもっとも大きなものは、簡便性とリアルタイム性です。研究開発分野では、現像工程が必要なフィルムカメラの利用は決定的な欠点を持っていると言えます。
デジタルカメラの解像度が1000 x 1000画素程度に上がって来た時点で、フィルムカメラの役割が無くなり、カラーで10,000コマ/秒(@640x480画素)の撮影ができるデジタルカメラが登場した時点がフィルムによる高速度カメラの終焉の時でした。
計測分野で(銀塩)フィルムが最後まで使われたのは航空写真でした。航空写真は120mmx120mmのフィルムに高精細な地上表面の写真撮影を行います。
フライトコストもかかることから、これだけの解像力で一度に写真を撮っていくデジタルカメラはまだ十分に普及していません。解像力を限定した撮影においてはデジタルカメラが使われています。
しかしながら、航空カメラメーカーもデジタルカメラ(DMC)を作り出し始めて、2004年あたりからデジタル航空カメラの普及に力を入れるようになりました。衛星写真は早い段階からデジタルセンサーを搭載してデジタル画像に切り替えてきました。2024年現在では、映画産業に1割程度フィルムカメラを回しているようです。アマチュアマニアの中には熱烈なフィルムカメラ愛好家がいて、今でも8ミリフィルムカメラ、16mmフィルムカメラを使っています。、35mmフィルムカメラ、70mm IMAX カメラも使われています。
 
 
 
Q010. デジタル画像は信頼できるの? (2007.07.24)(2008.06.13)(2024.01.21追記)
 
A10. デジタル画像で作った映画やコマーシャルを観ていると、なんだってアリです。恐竜が行き来と闊歩しています。
2000年までは映画と言えば銀塩を使ったフィルムが一般的でした。
フィルム映像は画像処理をするのがデジタル画像よりは困難だったのでバーチャル映像はそれほどおおくありませんでした。
2010年以降デジタル画像が急速に進歩してくると一般的な用途でフィルムを利用することはほとんどなくなって来ています。
理由は、画像が即座に見えて、維持費もほとんどかからないからです。
信頼性が求められる計測分野でもほとんどデジタルカメラに置き換わっています。
デジタルカメラは、しかしながら、画像処理によって現実とは異なった情報を追加できます。ハリウッドが作るデジタル映画は古代の恐竜が生き生きと動き回り、ビルの谷間を蜘蛛に化けたヒトが飛び回っています。
建設現場での証拠写真がものの見事に改ざんされているので問題になったことがあります。
デジタルカメラは信用できるか、というと、現時点(2024年)では、5分5分です。やろうと思えばできてしまう。しかし時代は間違いなくデジタルに向かっています。デジタル画像の特徴をよく理解して、効率よく使うことが賢い使い方と言えるでしょう。
 
 
 
 
 高速度カメラ入門 Q&Aトップに戻る

 

 

 
 
高速度カメラ
 
 
Q101. 高速度カメラにはどんな種類があるの?
 
A101. 高速度カメラは、1秒間に100枚以上の撮影ができるカメラを総称しています。
高速度カメラは、ハイスピードカメラ、High Speed Camera、高速度ビデオ装置、高速度写真撮影装置などとも呼ばれています。
20,000,000コマ/秒の撮影ができるカメラも登場しています。
1930年前半から現在までの約80年間に、7タイプのカメラ、約60種類の高速度カメラが開発されました。
2000年からはICメモリとCMOS固体撮像素子を組み合わせたデジタル高速度カメラが主流になりました。
放送局、映画撮影分野では高速度カメラという言い方ではなくてスローモーションカメラとも呼ばれています。
対象物の速い動きをゆっくりと録画するカメラということでその名前がついています。速い現象を撮るカメラをハイスピードカメラ、速い現象をゆっくりと見ることができるカメラをスローモーションカメラと呼びますがカメラとしては同じジャンルのものです。
詳細は、歴史背景とトピックを参照して下さい。
これらの高速度カメラは、目的に応じて使い分けされています。
 
      
 
 
Q102. どんな分野に使われているの?
 
A102. 研究開発分野に多く使われています。
詳細は、画像計測事始め歴史背景とトピックを参照して下さい。
 
      
 
上図の表は、被写体速度がどのくらいの撮影速度を必要としているかの分布図です。
斜めの線は撮影倍率を表します。撮影倍率は顕微鏡の倍率とは異なり、被写体の大きさがカメラの撮像面(フィルム面もしくはCCD撮像素子面)にどの程度の大きさで写されるかを示します。
M=1は対象物の大きさがそのまま撮像素子に投影される倍率で、M=100は顕微鏡の世界です。
ビデオカメラでとらえるときは、モニターで映像を見ますから、撮像素子面の像からモニタに映し出されるモニター倍率(およそ50倍)を掛け合わせる必要があります。
 
 
Q103. 高速度カメラから何がわかるの? (2001.01.04)(2009.05.20追記)
 
A103. Q04と同じような回答です。高速度カメラを使って解明されたトピックを2、3書き出してみましょう。
 
 
・リレーのスイッチ挙動 - 撮影速度:3,000コマ/秒。 1930年代、米国ベル電話機研究所で電話交換機の開発に使われた。
・スポーツ工学 - 撮影速度:200コマ/秒〜1,000コマ/秒。 走る、打つ、投げる、跳ぶ、重心移動の基礎研究に使われた。1870年代〜
・エンジン燃焼 - 撮影速度:1,000〜100,000コマ/秒。 ノッキング、火炎伝播、着火、青炎・輝炎燃焼。1940年代〜
・インクジェット - 撮影速度:100,000コマ/秒。 液滴の飛翔、着弾、1980年代〜
・自動車安全実験 - 撮影速度:500〜1,000コマ/秒。 実車衝突実験、シートベルト挙動、エアバッグ展開、バンパーの安定試験。1960年
・宇宙開発 - 撮影速度:500〜100,000コマ/秒。 ロケットエンジン、衛星切り離し、着脱ボルト、フェアリング。1950年代〜
 
 
1998.4月、プロ野球が開幕し、読売巨人軍の新人高橋由伸選手がすばらしい活躍をして連日マスコミを賑わしています。
彼の良さは、柔軟なバットコントロールと、ミート時にトップスピードでスウィングができることだと言われています。
その科学的論拠を、2台の高速度カメラを使って彼のバッティングフォームを撮影し、コンピュータによって3次元構築されてスウィングスピードが求めらました。
この手法は、東京大学教育学部 平野祐一助教授らが確立させている計測法です。
松井秀喜選手のデータや古いところでは長島茂雄、王貞治両選手のデータ(当然16mmフィルムによる高速度カメラ画像)もあり、これらのデータを比べながら、効率よいバットスィングの学術的な研究がなされているようです。
 
 
Q104. 高速度カメラの性能要素はどんなもの? (2009.05.20追記)(2011.09.24追記)
 
A104. 高速度カメラの性能を見る場合に次の性能要素が上げられます。
 
・ 撮影速度: 1秒間あたりに撮影できる画像枚数 [単位: コマ/秒、fps=frames per second]
・ 露出時間: 1枚の画像を撮影するのに要する露光時間 [単位: 秒、マイクロ秒]
・ イメージフォーマット: 撮像素子内の有効サイズ [単位: mm x mm、インチ、型]
・ 像解像力: 像の画質を示す指標 [単位: 本/mm、pair lines/mm]
・ 使用レンズ: カメラに装着するレンズ
・ システム感度: 1枚の画像を撮影するのに要する露光時間とレンズ絞り [単位: 秒、マイクロ秒]
・ 電源: カメラに使う電源(AC電源、発動発電機、バッテリー)
・ 寸法: カメラの寸法
・ 消耗品: 映画フィルム、磁気テープ、CD/DVD/BD、HDD、SSD
・ 使い勝手:  カメラセットアップ、露出の決定、記録時間、画像の保存
 
 
以下、補足です。
 
 
・撮影速度: 時間分解能を決める要素です。撮影速度が高いほど速い現象をとらえることができます。
・露出時間: 1枚の画像を得るのに必要な要素で、1/撮影速度以下の値を取ります。
     たとえば1,000コマ/秒の撮影ならば、露出時間は1/1,000秒以下です。
     短い露出時間ほどシャープな画像が得られます。
     一般的には撮影間隔の5分の1以下(1,000コマ/秒なら、1/5,000秒以下)が適当な値です。
 
ユーザの多くに上記の撮影速度と露出時間の関係を理解されないケースが見受けられます。
1枚の画像を得るには撮像面に光を一定量(適正露光量)入射させなければなりません。
一般のCCDカメラは30コマ/秒で画像を取り込んで、その時の露光時間は1/30秒です。
また、CCD素子やCMOS素子を使った高速度ビデオカメラの露出時間においても、通常のビデオカメラと同じで撮影速度の1枚分、つまり1/撮影速度が露出時間となります。
これよりも短い露光時間がほしい場合は、電子シャッターやメカニカルシャッターを用いて短時間露光を行っています。
映画用のカメラは、24コマ/秒で撮影され、露光時間は、その半分の1/48秒が一般的です。
高速度フィルムカメラは撮影間隔の1/5の露光時間(1,000コマ/秒なら1/5,000秒)が一般的です。
フィルムを用いたカメラは、フィルムを送る機構部が入っていますから、CCDカメラのように全ての時間を露出に割り当てることができません。
フィルムを送っている時間は、フィルムが動いているので光を入れたら像が流れてしまいます。
従って、撮影速度の時間の半分や、1/5の時間をそうしたフィルムの移送に割り当てているのです。
(2001.02.26)(2024.01.21追記)
        
 
 
・イメージフォーマット: 像を結ぶ撮像面の大きさです。
フィルムの乳剤面やCCDの撮像面の大きさです。
基本的に、このイメージフォーマットが大きいほど画質が向上します。
ただし、CCDカメラのように画素数が決められている場合には、イメージフォーマットは画質には関係なく、光を集める感度に影響します。
イメージフォーマットは、16mmフィルムカメラで10.2mmx7.4mm、35mmフィルムカメラで24mmx18mm、2/3インチCCDカメラで8.8mmx6.6mmという具合です。
・像解像力: 画質の度合いを表します。
撮像素子の画素数、フィルムの解像力、レンズ、撮像位置定位、などの総合評価で求まります。
ビデオでは、画面を何分割できるかというライン数で表します。
CCDカメラの画素数(画素、ピクセル)も一つの目安です。
フィルム、レンズでは、1mmの中に何本の白黒ラインが解像するかというlp/mm(ラインペア/mm)という表し方を言います。
 
■ 固体撮像素子の解像力
フィルムは、面の位置に関係なく解像力は保存されますが、CCDカメラなどは撮像面がトンボの複眼のように量子化されている(ひとつひとつがセルで区切られている)ため、撮像されるセルの位置によっては入射する像の解像力が相殺されて半分以下になることがあります。
たとえば500本の格子状の被写体を500画素のCCD一杯に映すとき、位置によっては(格子が画素の中間に来る場合)2つに1つしか記録できず、また、コントラストも半分に落ちてしまうことが考えられます。
また、被写体像がCCDの解像力の倍以上になる場合(右下の図のCCD画素上で被写体が画素の1/2になる場合)、CCDが受ける情報はグレーになってしまい正しく解像しないケースがでてきます。
CCD撮像素子では、こうした不具合を解消するため被写体の高周波成分(細かい被写体)を光学的に除去するフィルタ(光学LPF = Low Pass Filter)が取り付けられていて、サンプリング周波数の1/2以上の成分が除去されるようになっています。
このフィルターは、CCD素子の前面に張り付けられる人工水晶でできた光学ガラスで、水晶の複屈折を利用して高周波成分をカットしています。
カットする周波数は、水晶板の厚さで決まります。
サンプリング周波数の1/2以上をカットするということは、水平760画素程度のCCDの場合360画素以上の細かな像は、ここでカットされてしまうということになります。
 
・使用レンズ: Cマウントレンズ、ニッコールFマウントレンズが一般的です。
これらの2タイプは、種類が豊富です。
Cマウントには、口径が同じでコンパクトなCSマウントと呼ばれるレンズもあり、小型CCDサイズに使用されています。
その他、Pentaxレンズ、Canonレンズ、マミヤレンズ、アリマウントレンズ、Sony ENGマウントレンズ、ビクターENGマウントレンズなどがあります。
Cマウントは、1インチ径(φ25.4mm)のネジ式で、16mmフィルムカメラから開発されました。
10.2x7.4mmの撮像サイズをカバーできるレンズです。
記録するイメージサイズが小さいので、35mmスティルカメラレンズよりコンパクトになっています。
Fマウントレンズは、日本光学(現ニコン)が35mmスティルカメラ用に開発したバヨネットマウント(ワンタッチで着脱できるマウント)で、24 x 36mmのイメージサイズをカバーできるレンズです。
同じイメージサイズをカバーできるレンズには、Pentax Kマウント、Canonマウント、ミノルタマウント(現ソニー)などがあります。
ドイツにもZeiss、ライカなどの最高峰のカメラレンズがありますが、高価なため、全世界の多くの研究機関では、コストパフォーマンスが優れて品揃えの豊富なNikon Fマウントレンズを使用しています。
ただ、2000年以降、デジタル一眼レフカメラが発達し、これに伴い、同じニコンFマウントでも旧来のフィルム用のFマウントレンズとは必ずしも互換性がなくなってきています。
また、フィルム用のFマウントレンズも需要の減少に伴って生産を中止するモデルもたくさん出てきています。 (2009.05.20追記)
 
 
レンズの基本的な性能は、以下の通りです。
 
・ 屈折力を表す焦点距離
・ 光を集める力を表す口径比(絞り、Fナンバー)
・ 投影する像の大きさを表すイメージサークル
・ レンズの総合性能である解像力
・ カメラを取り付けるマウント
・ 大きさ
・ 重さ
・ フィルターの取り付けネジ寸法
 
ビデオカメラの普及とともに、ビデオカメラ(CCDカメラ)に装着するレンズの種類が増えてきました。
CCD素子は小型、高集積化がすすみ、レンズも小さいものが求められるようになりました。
また、CCDカメラの高級なものは、CCD撮像素子をRGB(赤、緑、青)の3つ使用しています。
この3CCDカメラは、レンズとCCD撮像素子の間にダイクロイックミラーと呼ぶプリズムがあって、レンズからの光を3つの原色光に分けています。
従って、レンズと撮像素子の間の距離が長いので通常のCマウントレンズやニコンFマウントが使用できません。
つまり、3CCDカメラ用のレンズには、フランジバック(レンズの取り付け面から撮像面までの距離)の長いENGカメラレンズが開発されました。
これらのレンズは、開発元のSONYが提案したバヨネットマウント方式が主流になったので、SONYマウントと呼ばれています。
このレンズは、Fujinon、Canonなどのレンズメーカから購入することができます。
 
 
・システム感度: ISOの相対換算で表したり、被写体最小照度で表したりします。
高速度カメラは短時間露光が宿命ですから、この感度が高いほど付帯照明設備がいらず楽な撮影ができます。また、高速度撮影、短時間露光、レンズの絞り込み撮影においても感度の高いカメラは有利です。ただ、感度を無理に高めたカメラでは、ノイズ成分が顕著に表れたり、カラーバランスが整っていなかったりと画質が劣る場合があります。
・電源: 交流か直流か、またどれくらいの消費電力かをチェックします。
大型高速度フィルムカメラでは200VAC電源が必要な場合があります。屋外撮影ではDC(バッテリー)駆動は魅力です。
 
・寸法: 実験室のスペースに限りがあるときや頻繁に運搬を余儀なくする際に考慮する項目です。
カメラのセッティングなどにもこの寸法はチェックする必要があります。高速度カメラのいくつかは、カメラヘッドと記録部/電源部が切り離せるタイプがあるのでこの点についてもチェックする必要があります。
 
・消耗品: 長期にわたり使用するものですから、定期交換部品を含め、どのようなものがあるか確認する必要があります。
フィルムカメラですと映画フィルムと現像代、高速度ビデオですとビデオテープなどがこれにあたります。
 
・使い勝手: 最終的には、それぞれの目的に応じてユーザ自ら使い勝手が良いかを判断することになります。
高速度カメラは総じて高価なので、投資分を回収するには上記の性能以外に装置に馴染んで有効利用できる使い勝手を評価することが重要です。このほか、カメラを使用する上で、サービス体制、技術支援など総合的な判断も重要です。
 
テープ式高速度ビデオは装置は、記録媒体に1/2インチVHSテープを使っていて、記録時間がICメモり方式に比べ圧倒的に長いのが特徴です。
ICメモリはデジタル記録のため画像劣化のない記録ができる特徴があります。
しかし高速で記録する媒体がDRAMであるため、録画した画像は、別の媒体に保存しなければなりません。
 
コンピュータのPCIカードに必要な回路を装備してコンピュータに直接画像を取り込む高速度カメラも登場しました。
これらのカメラは研究機関や工場のラインの検査用に設置し、高速度画像を直接コンピュータに取り込んでそのままネットワークで希望するクライアントに転送することができ有効利用されています。
 
スポーツの競技などでは、待ったなしに競技が進行しますからテープ方式が使われます。
1998.2月に行われた長野オリンピックではこのテープ式高速度ビデオが活躍しました。
特にスピードスケートでは、次々と選手が走っていく待ったなしの世界記録が出る競技会ですので長時間録画の性能をいかんなく発揮しました。
 
 
 
 
Q104-2 露出時間、露光時間、シャッタスピード、シャッタ定数はどう使い分けたら良いの? (2011.09.24)
 
A104-2. これらは、いずれも一枚の画像を得るために撮像面に光を与える時間を表しています。
英語表記では、Exposure Time, Shutter Speed, Shutter Constantと表されます。
数値表記は、1/1000秒、1ms、1000usなどの時間表記となります。
映画カメラマンなどは、ミリ秒、マイクロ秒という時間単位の馴染みが薄いため、1/125秒、1/500秒という言い方を使います。
また、24コマ/秒が彼らの一般的な撮影速度であるので、シャッタ定数2(撮影速度の1/2のシャッタ速度、1/48秒)、シャッタ定数5(撮影速度の1/5のシャッタ速度、1/120秒)と言う言い方もします。
カメラのシャッタとして回転円板シャッタを用いて、1コマ1回転で切り欠きの開角度でシャッタ速度を表すこともあります。
180°であれば回転円板シャッタの半分が露光にあてられるのでシャッタ定数2となり、72°であれば5、36°であれば10という具合です。
CCD、CMOS撮像素子を使った計測カメラでは素子に電子シャッタが内蔵しているため、電子シャッタによって撮像素子に蓄える受光時間が設定できます。
計測カメラ分野では、他の計測装置(ストロボ発光、LED発光タイミング、センサーによるトリガタイミング)との関係上、ミリ秒(ms)やマイクロ秒(us)で露光時間を表すことが普通です。
露出時間と露光時間の違いは、現在ではほぼ同じ意味で使われています。
カメラの初期の時代、撮影を行うのに1分から10分程度かかっていた時は、感光フィルムに光を入れる = 露出させるという意味で露出時間が使われたと思います。
また光源によって対象物を照らしだす場合や、印画紙に写真を焼き付けるときは光を感光材料に与えるので露光と言っていました。
フィルムカメラに機械式シャッタが組み込まれるようになって、正確に短時間露光ができるようになると、シャッタ機構のスピードで露出時間が決められるようになったので、シャッタスピードと呼ばれるようになりました。
こうしてみると、現在の電子シャッタ内蔵の計測カメラでは、シャッタスピードと呼ぶのは適切でないような気がします。
ただし、高級デジタル一眼レフカメラは、機械式フォーカルプレーンシャッタが組み込まれているので、このカメラについてはシャッタスピードという言い方は適切だと言えます。
 
 
Q105. 適切な撮影速度はどうやって求めるの? (2024.01.21追記)
 
A105. 高速度現象を適切な撮影速度で撮影するための簡単な撮影速度算出方法について述べます。
上の高速度カメラの応用分布図からも求めることができます。
被写体の速度と撮影倍率を割り出して、そこから縦軸の撮影速度を求めることができます。
この応用図の基になった計算式は、以下の通りです。
 
 
R = (M x V) / (d x 5)
   R: 必要撮影速度 (コマ/秒)
   M: 撮影倍率
   V: 被写体速度(mm/秒)
   d: 許容錯乱円 0.025mm
   5: 係数
 
 
上の式は、写真計測から導き出された計算式です。
この式は、フィルム(銀塩)やレンズの解像力から求められるボケの許容値である許容錯乱円が基礎になっています。
CCDやCMOS素子では2画素あたりのピクセルサイズを根拠とします。
この式は、被写体がフィルム上でどれだけ移動しても良いかをこの許容錯乱円に当てはめて露光時間 T(秒)を割り出し、その5倍の時間間隔を撮影速度と定義しました。
当時、一般的な高速度カメラの露出時間と撮影速度はメカニカルに決められ5分の1であったため(これをシャッタ定数5と呼ぶ)、その係数5を加味して撮影速度を求めたのです。
 
許容錯乱円は、もともとフィルム画像を拡大してみたとき人間がボケと認識しない値として経験的に求められた値で、16mmフィルムでは0.025mm、35mmフィルムでは0.05mmとして使われてきました。
この式をもとに撮影をすると被写体が水平方向に推移すると、16mmフィルムカメラでは約80枚にわたって撮影できます。
 
ここで割り出した80枚という撮影枚数は、映像計測の観点からは必ずしも必要ではなく、直線運動であるならば20枚程度で十分にその挙動を把握することができます。
ただし、撮影速度を落とすと必然的に露出時間が長くなり像がボケますから、露出時間は十分に短く取る必要があります。
 
ビデオカメラでは素子が一つ一つセル(ピクセル=画素)で囲まれているため、許容錯乱円はもはやあまり意味をなさなくなっています。
被写体像の露出時間内での移動が1ピクセル以内に入れば必要条件を満たしていますが、像が2ピクセルにまたがって撮像されるおそれがあります。その確率は100%に近いものなので、これを避けるためには、露出時間を撮像素子1ピクセルの1/5程度(セル間をまたがる確率は20%になる)に抑える必要があります。
ただこのようにしますと、昨今の撮像素子は1画素が4umとか6umなどのように相当小さくなっていますから、こうしたカメラを使う場合はレンズの性能(解像力)はもちろん露出時間も慎重に検討して短い露光時間を切る必要があります。
実際問題では、撮像素子には画素間の情報またぎによるモアレ映像を素子するために撮像素子に2画素以下の情報が入らないように光学フィルターが設けられています。
また、撮影した画像を見る場合に、大きく拡大してみることが無いのであれば許容錯乱円を2画素程度にしても良いという判断もなりたちます。
 
 
T = d / (M x V)
 
  T: 必要撮露出時間 (秒)
  d: 許容錯乱円 2画素
  M: 撮影倍率
  V: 被写体速度(mm/秒)
 
 
この式は、必要露出時間を求める式です。移動する対象物が撮像素子上で2画素以内に収まる露光時間を示しています。
例えば、6メートルの視野に時速60kmで走行する自動車を移動ブレなく撮影するための必要露光時間を求める場合に上の式を当てはめます。撮像素子を2/3型(8.8mm x 6.6mm、1280画素 x 960画素)とすると、
 
許容錯乱円 d = 2画素 x 8.8mm / 1280画素 = 0.0138 mm
撮影倍率M = 8.8mm / 6000mm = 1/680
自動車は、時速60,000,000mmなので、M = 16,670mm/sとなるので、
上式は T = 0.0138 /(1/680 x 16670) = 1/1,780 (秒)
 
となり1/2000秒の露光時間が必要となります。
 
 
Q106. 高速度カメラによって撮影される撮像面の大きさは違うの? (2001.01.22)(2024.01.21追記)
 
A106. カメラの種類によって使用されている撮像素子、イメージサイズが違います。
一般的にイメージサイズが大きいほど画質がよく感度があり、高価です。
使用するレンズが大きいイメージサイズのものを求めるので、大型になりやすくレンズも高価です。
イメージサイズは、撮影倍率を求めるとき、レンズがカバーする被写体エリアを求めるときに必要になります。
 
・ 一般のCCDカメラ:8.8mm x 6.6mm(2/3インチサイズ)
          注:日本ではインチ表記が禁止されているので「2/3型」と表記されます。
・ 1インチCCD:12.7mm x 9.6mm、
・ 1/2インチCCD:6.4mm x 4.8mm、
・ 1/3インチCCD:4.8mm x 3.6mm
・ 1/4インチCCD:3.69mm x 2.77mm
・ 1/5インチCCD:2.95mm x 2.21mm
・ 高速度デジタルカメラ IDT MotionXtra N3: 15.36mm x 12.29mm
・ 高速度ビデオ Redlake MASD HG100K: 18.05mm x 13.5mm
・ 高速度ビデオ Redlake MASD HG2000: 8.92mm x 6.144mm
・ 高速度ビデオ Redlake MASD MotionScope: 2.22mm x 1.65mm
・ 高速度ビデオ MEMRECAM Ci: 5.6mm x 4.3mm
・ 高速度ビデオ HSV-500C3: 4.9mm x 3.6mm
・ 高速度ビデオ Fastcam Ultima 40K(Kodak HS4540): 10.24mm x 10.24mm
・ イメージコンバータカメラ ウルトラナック: 18mm x 15mm
・ 16mmフィルム(ナックE-10、STALEX WS-3、Photosonics 16-1PL, 16-1B): 10.2mm x 7.4mm
・ 35mmフィルムカメラ(Photosonics 35-4ML、ARRI ARRITECHNO): 24mm x 18mm
          
 
 
 
Q106-2. CCD素子のサイズは何故インチ表示なの? (2000.09.16)
 
A106-2. 固体撮像素子をインチで呼ぶ慣習は歴史的なものです。
日本では、インチ表記は認められないため、「型」という表記になっています。
テレビカメラでは、CCDなどの固体撮像素子を使う前はブラウン管のような真空管の撮像管と呼ばれるものを使用していました。
この撮像管のサイズをその撮像管の径で呼んでいた時代が長く続き、1インチ管、2/3インチ管、1/2インチ管と呼んでいたのです。
その呼び名が、固体撮像素子の時代になってもそのまま受け継がれたというわけです。
1インチCCDは、そのCCDの有効サイズが1インチ撮像管の撮像サイズに近似しているために、便宜的に呼ばれているにすぎません。
ちなみに1インチは25.4mmで、1インチサイズのCCDの対角線は16mmであり、この両者は似ても似つかない数字になっています。
これは、1インチ撮像管の光電面が完全な平面ではないため(ブラウン管を思い浮かべて下さい、曲面になっています。
1990年代のブラウン管はフラット画面になりましたが。)、口径の中の良好な光学特性が得られるところだけを選んで撮像してました。
そのサイズは、偏向コイルによって微調整していたため、CCDのように幾何学的にかっちりしたものではありませんでした。
ある意味、CCD固体素子は撮像管に比べて幾何学的な歪みがないため、計測分野では良好な性能を持った撮像素子と言えました。
ちなみに、1インチ、2/3インチ、1/2インチ、1/3インチなどの呼び方は、慣れれば言いやすく素子の大きさや使用するレンズを選ぶ時に便利です。
この呼び名は、撮像素子が主流になった今日においても、他の適当な呼び方がなく浸透してしまったというのが現状のようです。
 
 
Q107. 使用するフィルムにはどんなものがあるの?(1999年) (2009.05.20追記)
 
A107. ビデオテープレコーダ、8mmビデオ、デジタルビデオ、デジカメ(デジタルスティルカメラ)の台頭で銀塩フィルムの存在が薄れてきました。
面白いことに米国ではまだフィルムカメラにより写真計測が盛んです。
詳細は、「光と光の記録 - CCDs vs. Film for Fast-Frame Impact Testing」を参照下さい。
一般的なフィルムは、Fujiフィルム(日本)、コダック(米国)、AGFA(ドイツ)、ILFORD(英国)、3M(米国)、コニカ(日本)が製造しています。(これは2000年時点での話。)
 
1990年(9年前)、イギリスに行った時、町のスーパーでイタリア製のフィルム(名前は忘れました)を見てビックリしたことがあります。
26年前(1983年)に、アメリカ東部のフォトショップでFujiフィルムを見たときもびっくりしました。
 
1999年時点では、Fujiとコダックが市場を席巻しています。映画フィルムに関しては、ハリウッドを抱えるコダックが圧倒的に強い立場にあります。
 
高速度カメラ用のフィルムは、コダックが標準フィルムとして使わてきました。
 
1970年代よりFujiが高感度の16mmフィルムを提供するようになり、日本ではFujiの16mmフィルムを使用するケースが多くなりました。
1970年〜1990年まで活躍した、16mmフィルムタングステンリバーサルフィルム。当時の高速度カメラは、このフィルムで撮影された。フィルム感度は、ISO500だった。
日本国内では、16mm高速度カメラが3,000台程度あり、2000年当時は、10%〜20%程度が稼働していました。
これらのお客様は、現像行程と運用費用を節約するため白黒フィルムを使うことが多いのですが、コダックがISO400の高感度フィルムの製造を中止してしまいました。
 
日本で使用できる16mmフィルムは以下のようなものがあります。(2000年当時)
 
・カラーリバーサルフィルム(ディライト):フジカラーリバーサル RD-500
・カラーネガティブフィルム(タングステン):フジカラーネガティブ F-500
・白黒ネガティブフィルム: HS-500(フジフィルムによるOEM供給)
 
ヨーロッパの自動車安全実験などで使われる高速度カメラ用フィルムはカラーネガが圧倒的に多いそうです。
リバーサルフィルムの現像を行うラボが減少し、フィルム供給も困難になっているためカラーネガフィルムを使っているそうです。
カラーネガの良さは、濃度階調(ラチチュード)が広く露出設定が容易、増感現像が楽、現像処理がリバーサルフィルムより楽、などが挙げられます。ただし、現像したフィルム画像は、反転画像なのでフィルムプロジェクタにテレビカメラを取り付け、反転処理してビデオ信号に変換する「テレシネ」処理するか、フィルムプリント処理する必要があります。(これは2000年までの話。2008年現在フィルムカメラを使っているユーザは、米国NASAなど数機関にとどまっています。)
 
 
 
 
Q108. 高速度撮影にはどれだけの光量が必要なの?(1998.2.28)(2009.05.20 追記)
 
A108. 高速度カメラに関わらず、カメラ撮影には光が非常に重要な役割を果たします。
光を如何に自由に操るかが、現象から画像を抽出する上で大事になります。
岩波新書『映画キャメラマンの世界』(渡辺浩 著、岩波新書250、1992.10.20)の中にも、ライティングについてかなりのページを割いて説明がされています。
また、このホームページでも、「光と光の記録」で光源についての説明がなされています。
高速度カメラでは、通常の撮影では及びもつかないような強い光が必要です。
通常のカメラは、1/60秒から1/500秒の露出時間で事足りますが(ビデオの場合は、1/30秒)、高速度カメラは、その1,000分の1秒から500,000分の1秒の短時間露光をしなければならないため、光量も通常撮影の100倍から1000倍必要になります。
 
一般に撮影に必要な光量は、以下の式で求まります。
 
E = 235 x (1+M)2 x F2 / (T x ASA)
 
  E:撮影に必要な被写体照度(ルクス)
  M:撮影倍率 (M = 撮像素子面上のイメージサイズ / 被写体の大きさ)
  F:カメラレンズ絞り
  T:撮影露出時間(秒)
  ASA:フィルム感度(ISO = ASA)
 
この式は、Mの値(= 撮影倍率)が大きいほど(= 拡大撮影であるほど)必要照度が高い(明るい被写体である)必要があります。
Mの値が大きいとは、撮影倍率が高いことですから、顕微鏡撮影などの小さな被写体を拡大して撮影することを意味します。
また、Fの値(= レンズの絞りの値)が大きいほど高い照度が必要です。
これは、カメラのレンズを絞れば絞るほど光を強くしなければなりません。
逆に、Tの値( = 露出時間)が大きいほど必要照度は小さくてすみます。
Tの値は、露出時間ですから、露出時間が長いほど暗い被写体で良いことになります。
ASAは、フィルム感度(ビデオカメラでは撮像素子感度)を表し、この値が大きいほど高感度になりますから被写体照度は小さくてすみます。
これらのパラメータで必要照度が決まります。
235という係数はフィルム感度値との関連から実験的に求められた値です。
映画カメラマンの中には、この値を200としたり250としたりしていますが、我々は235として使用しています。
右の表は、上の照度計算式を両対数グラフに表したものです。
自然の太陽光は一番明るい時で、100,000〜150,000ルクス程度ですから、このグラフを見る限り1/1,000秒(1ms)〜1/100,000秒(10us)の露出が限界であることがわかります。
以下に代表的な高速度カメラの必要照度を表します。
CCDカメラ開発設計者は、ASA( = ISO)感度になじみが無く定義そのものもCCD撮像素子とは違うため、CCDの感度表現にISO=ASAを使うのを嫌がる傾向があります。
CCDのカタログにもCCD撮像面での照度という記載になっています。
しかし、日常的には、ISO=ASAはなじみが深く、感覚的に明るさの程度が把握できるためここでは敢えてISO換算を用います。
 
ちなみにASAは、アメリカの規格でAmerican Standard Associationの略です。これは、ANSI(アメリカ国家規格局)の前身の組織で、古い時代に写真感光材料の光に対する感度が決められたため、その言葉が残っているわけです。
写真感度は、日本ではJIS、ドイツではDIN、イギリスではBSI感度、ソビエトではGOSTが使われていました。最近は、フランスに本部におくメトリック(MKS単位)のISO(International Society of Organization)が一般になって、フィルム感度もISO表示になっています。
 
 
 
 
高速度ビデオ RedLake MASD HG2000 の撮影必要照度(ルクス)
 
         
カメラレンズ絞り
(秒)
     
1.4
2
2.8
4
5.6
8
11
250コマ/秒
1/250秒
300
600
1,200
2,400
4,800
9,600
19,000
500コマ/秒
1/500秒
600
1,200
2,400
4,800
9,600
19,000
38,000
500コマ/
1/1,000秒
1,200
2,400
4,800
9,600
19,000
38,000
76,000
1,000コマ/秒
1/1,000秒
1,200
2,400
4,800
9,600
19,000
38,000
76,000
1,000コマ/秒
1/10,000秒
12,000
24,000
48,000
96,000
190,000
380,000
760,000
2,000コマ/秒
1/50,000秒
60,000  
120,000
240,000
480,000
950,000
1,900,000
3,800,000
この表は、Mが1/20以下、ISO=400として計算。
 
 
16mm高速度カメラPhoSonics 16-1PLの撮影必要照度(ルクス)
 
  
  
カメラレンズ絞り
(秒)
  
1.4
2
2.8
4
5.6
8
11
10コマ/秒
1/50秒
50
100
200
400
800
1,600
3,200
50コマ/秒
1/250秒
250
500
1,000
2,000
4,000
8,000
16,000
100コマ/秒
1/500秒
500
1,000
2,000
4,000
8,000
16,000
32,000
200コマ/秒
1/1,000秒
1,000
2,000
4,000
8,000
16,000
32,000
64,000
300コマ/秒
1/1,500秒
1,500
3,000
6,000
12,000
24,000
48,000
96,000
500コマ/秒
1/2,500秒
2,500
5,000
10,000
20,000
40,000
80,000
160,000
この表は、Mが1/20以下、ISO=500として計算。
 
16mm高速度カメラ ナックE-10 の撮影必要照度(ルクス)
 
露出時間(撮影速度)  
カメラレンズ絞り
(秒)
  
1.4
2
2.8
4
5.6
8
11
300コマ/秒
1/1,500秒
7,000 1)
7,000
7,000
12,000
24,000
48,000
96,000
500コマ/秒
1/2,500秒
12,000
12,000
12,000
20,000
40,000
80,000
160,000
1,000コマ/秒
1/5,000秒
24,000
24,000
24,000
40,000
80,000
160,000
320,000
3,000コマ/秒
1/15,000秒
70,000
70,000
70,000
120,000
240,000
480,000
960,000
5,000コマ/秒
1/25,000秒
120,000
120,000
120,000
200,000
400,000
800,000
1,600,000
10,000コマ/秒
1/50,000秒
240,000
240,000
240,000
400,000
800,000
1,600,000
3,200,000
この表は、Mが1/20以下、ISO=500として計算
 
 1) E-10カメラはカメラ内部に光学部品が入っているためカメラレンズをF2.5より明るくしても明るくならないことに注意。
 
 
 
 
 
Q109. 写真撮影に使われる露光指数のEVって何?(1998.7.20)(2002.09.26追加)
 
A109. 露出計にはEVと呼ばれる露出指数が表示されています。
値はEV1からEV17までが標準です。これはExposure Valueと呼ばれており、シャッタ露出時間とレンズ絞りの2つのパラメータで決まるものです。
LV(Light Value)とも呼ばれていますが値の意味は同じです。
多くのカメラマンはEVの値によって露光条件を瞬時に決め、照度をルクスなどで言わずEV値で言うことが多いようです。
EVは露出時間とレンズ絞りで求まり以下の式で表されます。
 
EV = log2 (F2/T)
 
  EV:Exposure Value ( = Light Value)
  F:レンズ絞り
  T:露出時間(秒)
 
このEV値は、絞り(F)と露光時間(T)だけで決まる値であり、撮像素子の感度には関係していません。
我々の感覚としてフィルムを用いた場合、ISO100が標準的な感度とみなすことが多いので、フィルム感度ISO100の時の値をEV100としたり単にEV値で言うことがあります。
上の式の意味合いはEV値が1つ増えるごとに明るさは倍にになり、1絞り分もしくは露出時間が2倍になったと同じことになります。
 
上の式を表にすると以下のようになります。
EV100
照度(入射光)
輝度(反射光)(18%)
Fナンバー
(1/8秒)
Fナンバー
(1/60秒)
Fナンバー
(1/250秒)
ルクス
ft - cd
cd/m2

アポスチルブ

3

20

2
1.2
3.7
1.0
-
-
4

40

4
2.3
7.3
1.4
0.5
-
5

81

8
4.7
14.6
2.0
0.7
-
6

163

15
9.3
29.3
2.8
1.0
0.5
7

325

30
18.6
58.5
4.0
1..4
0.7
8

650

60
37.2
117
5.6
2.0
1.0
9

1,300

120
74.5
234
8
2.8
1.4
10

2,600

241
149
468
11
4.0
2.0
11

5,200

483
298
936
16
5.6
2.8
12

10,400

966
596
1,870
22
8
4.0
13

20,800

1,930
1,190
3,740
32
11
5.6
14

41,600

3,870
2,380
7,490
45
16
8
15

83,200

7,730
4,770
15,000
64
22
11
16

166,000

15,400
9,510
29,000
91
32
16
17

333,000

30,900
19,100
59,900
128
45
22
18

666,000

61,900
38,200
120,000
181
64
32
19

1,330,000

124,000
76,200
239,000
256
91
45
20

2,660,000

247,000
152,000
479,000
362
128
64

上の表に示した値は、我々映画関係のカメラマンが経験的に用いている表です。

 
APEXという規格単位では、これとは違う値を採用しているようですがほんの少しデータに相違があるだけです。
これはAPEXが採用した輝度を求める時の定数と我々が、Q108. 高速度撮影にはどれだけの光量が必要なの?で採用した必要照度計算の係数235と若干の違いがあるためと思われます。
APEXの単位系についてはQ110. APEX規格の単位 EV、SV、BVって何?を参照してください。
また、上の表は、使用するフィルム感度をISO100として求めらた値です。
従って高感度のフィルムを使う場合は値が変わってきます。
ISO200のフィルムを使う場合は、露出計などで測定されたEV値(上記のEV100値)から1足したEV値の右欄の露光条件が最適値になります。
ISO400ではEV100値に2を足した値となります。
 
EVISO = EV100 + EVISO/100 = log2 [ F2/ T ]+ log2 [ISO/ 100]
 
  EVISO:Exposure Value ( = Light Value) 使用するフィルム感度ISOでの換算露光値
  EV100:Exposure Value ( = Light Value) フィルム感度100での露光値
  EVISO/100:Exposure Value ( = Light Value) フィルム感度100と使用するフィルムの換算露光値
  F:レンズ絞り
  T:露出時間(秒)
  ISO:フィルム感度
 
EV9の値は、通常のオフィスでの机の照度1,300ルクスで、ISO100のフィルムで1/8秒、F8というゴロのいい値になっています。
また、EV16が照度166,000ルクスとなり、これは真夏の屋外での最も明るい時で、この場合には、1/250秒、F16の露光を表しています。
これらの値を頭に入れておけば、とっさの撮影にも大まかなセッティングで撮影ができます。
 
上記の、光の単位については、『光と光の記録』を参考にして下さい。
 
 
 
 
Q110. APEX規格の単位 EV、SV、BVって何? (2002.09.26)
 
A110. Q109にあるEV(Exposure Value)のトピックに触れ、2002.09.12にMさんからEVと感度ISO100での照度の値が違うのではないか?という指摘を受けました。
Mさんのご指摘によると、EV値(Exposure Value)は、フィルム感度を示すSV(Film Speed Value)と被写体輝度を示すBV(Brightness Value)との和で示され、その輝度値をQ109にある換算表で見ると若干違う、というものでした。
ご指摘の件を私なりに調べこの項目で追加します。
Mさんから紹介を受けたSVとBVという定義は、APEXという単位として扱われてるもので、近年の電子化されたカメラの露光プログラムを構築する際に非常に便利な考え方として採用されています。
APEXシステムは、撮影に必要な要素(レンズ絞り、露出時間、撮像素子感度、被写体輝度)を同じ次元の単位としてAPEX単位に変換し、変換された撮影要素は単純に加減算処理だけで最適値を割り出せるというものです。
このシステムがデジタルカメラの標準画像フォーマット(Exif = Exchangable Image File、JPEG画像ファイルに必要な撮影データを入れ込んだデジタルカメラ用画像フォーマット)に採用されています。
APEXとは、Additive System of Photographic Exposureの略で写真撮影のための換算システム規格です。
35mmスティルカメラ(ライカサイズカメラ)が電子化され測光機能がカメラに内蔵されるようになった1970年代から露出処理を簡単に出来るシステムとして普及し、カメラ内蔵の測光プログラムに使われたと想像しています。
(なぜなら1970年以前の写真関連書物にはAPEXの説明がないからです。
APEXシステムは1960年代にドイツで開発されたようです。)APEXは、以下の関係式で表します。
 
EV =  SV + BV = AV + TV
 
   EV: Exposure Value ( = Light Value)
   SV: Film Speed Value、ISO感度をAPEX単位に換算したもの。
   SV = log2 (ISO/3.125)
   BV: Brightness Value、被写体輝度をAPEX単位に換算したもの。
   BV = log2 (B/N*K)
     B: cd/cm2
     N、K: 定数
   AV: Aperture Value、レンズ絞りをAPEX単位に換算したもの。
    AV = 2log2 (F)
     F: レンズ絞り
   TV: Shutter Speed Value、露光時間をAPEX単位に換算したもの。
    TV = -log2 (T)
     T: 露出時間(秒)
これを表にすると以下のようになります。
 
APEX値
(EV、SV、BV、AV、TV)
ISO感度
輝度 B
(ft-L)
照度
(ft-cd)
照度
(ルクス)
レンズ
絞り
露出時間
(秒)
-5
-
1/30
0.2
2
-
30
-4
-
1/15
0.3
4
-
15
-3
-
1/8
0.7
8
-
8
-2
-
1/4
1.4
16
0.5
4
-1
1.6
1/2
3
32
0.7
2
0
3
1
6
65
1
1
1
6
2
12
129
1.4
1/2
2
12
4
25
258
2
1/4
3
25
8
50
516
2.8
1/8
4
50
15
100
1,033
4
1/15
5
100
30
200
2,066
5.6
1/30
6
200
60
400
4,132
8
1/60
7
400
125
800
8,264
11
1/125
8
800
250
1,600
16,530
16
1/250
9
1600
500
3,200
33,050
22
1/500
10
3200
1000
6,400
66,110
32
1/1000
 
      撮影パラメータに対するAPEX単位表
 
 
この表の使い方を例を挙げて紹介します。
ISO100のフィルムを使って500ルクスの被写体を撮影する場合、上の表よりフィルムのAPEX値はSV=5で、被写体照度のAPEX値はBV=3となりますから、EVは、
 
EV = SV+BV = 5+3 =8
 
となります。
EV値が8の条件で、レンズ絞りと露出時間の条件を探してみます。
レンズ絞りを2.8にセットすると、AV=3となりますので、適正露出時間のAPEX値TVは、
 
TV = 8-3 = 5
 
となり適正露出時間は1/30秒とすればよいことがわかります。
また、レンズ絞りを1.4にすると、AV=1ですから適正露出時間のAPEX値のTVは、
 
TV = 8-1 = 7
 
となり、適正露出時間は1/120秒に設定すればよいことがわかります。
このようにAPEX値は相互換算がとても行いやすく、このシステムを用いるとカメラの測光プログラムを行いやすいことがわかります。
ただ、輝度の単位である1フートランバート(ft-L)をAPEX値の「0」に当てたのは少し強引のような気がします。
歴史的に見ると、APEXに先行して、EV値がレンズ絞りと露出時間の定義づけを行っていました。
APEXシステムを開発するにあたり、輝度値を計算しやすいように1フートランバート(ft-L)のAPEX値を「0」にあてて、それとバランスがとれるようにフィルム感度のAPEX値を近似させる関係上、ISO100時のAPEX値を「5」としたように感じられます。
ルクスの数値があまりキレイでないところを見るとAPEX値は米国で制定されたもののようです。(実際はドイツのようですが詳しいことはわかりません。)
また、デジタルカメラの内部にも、SVとして撮像素子の感度数値があるとするとCCD撮像素子も便宜的にISO換算の感度値を入れ込んでいるものと思われます。
 
いずれにしてもまた詳しいことがわかったら更新します。
 
 
Q111. カメラの感度って何?(2009.04.18)
 
A111. カメラがどのくらいの明るさで撮影できるかを表す目安です。
デジタルカメラの発展とともに、従来フィルムで使われていた ISO感度 を適用するようになっています。
フィルムでは、ISO100が標準感度とされ、ISO400を高感度フィルムとしていました。
そうした感度表示を、デジタルカメラ(一眼レフデジタルカメラ)にも適用するようになり、それが計測カメラにも使われるようになりました。
ビデオムービーカメラには、そうしたバックグランドがないので、カメラの感度を表記するのは、被写体照度(たとえば、10ルクスなど)で表されます。
フィルムの感度に用いられた ISO感度(古くはASA感度)は、フィルムを一定の処方で現像して、フィルムの持つ濃度カブリから像が出始めた時の露光条件から感度を決めていました。この定義をデジタルカメラにも引き継いで、カメラ感度の目安としました。
ISO100の感度を持つカメラは、およその目安で言うと、夕暮れの人物撮影を、なんとか写せる明るさです。照度で言うと600ルクス、レンズの絞りF2.8、カメラの露出時間が1/30秒の条件です。
CCDビデオカメラは、ISO500程度です。
これは、夜のリビングルームを明るく写せる感度です。
カメラの感度を表す表現として、計測カメラでは、ISO表記の他に、被写体照度で表したり、撮像素子への入射照度、撮像素子への入射光束で表すこともあります。
また、波長に関する量子効率(QE)で表すこともあります。
 
 
Q111-1. QE(量子効率)って何? (2009.05.21)
 
A111-1. 量子効率とは、撮像素子の持っている波長依存による感度です。
単位波長光を撮像素子に入射させて、光エネルギー(光子1個)がすべて電子エネルギー(電子1個)に変換された場合に、量子効率(QE)が1( = 100%)であると言います。
カメラのQEが論議される撮影応用には、発光現象(ラマン分光、蛍光現象)などの物理学分野があり、そうした分野で使われる計測カメラには、以下に示すようなQEの特性を表したデータが公表されています。
 
QE曲線。
横軸に波長、縦軸に量子効率(QE)が示される。このQE特性を持つカメラは、超高感度カメラのもので顕微鏡の蛍光撮影やラマン分光分野に使われている。
従来の個体撮像素子は、QEが10%のものが多かったが、この素子は可視域で90%近くの量子効率を持っている。
QEでカメラの感度を見る方が、調べたい波長の光エネルギーが電子に変換される効率を見ることができ、また、希望する波長での変換効率を確認することができるので、そうした目的には便利です。
例えば、499nmのレーザを使った顕微鏡で、この光が光学系を通して撮像素子に入射するとすると、受光面積、開口率、透過率、レーザ出力などから撮像素子に入射する光のエネルギー量を知ることができます。
このエネルギー量をQEの表を見て、カメラがどのくらいの電荷を蓄積するかを知ることができます。
カメラには、素子が蓄えられる電荷量とノイズ成分が電荷として公表されているので、これから適正な露光量を求めることができます。
 
ちなみに、上で示したQEを持つ固体撮像素子は、EMCCDと呼ばれるもので、ノイズがほとんどなく感度がとても高いものです。
ISO感度に換算すると、ISO 6,200,000に相当します。
この感度は、0.005ルクスの明かりで対象物をとらえる能力を持ったものです。
 
量子効率の詳しい説明は、光と光の記録 - 量子効率(http://www.anfoworld.com/Recordings.html#QE)を参考にして下さい。
 
 
トリガ入力がある高速度カメラ。
「TRIG」と書かれているコネクタに電気信号を送る。
資料提供: IDTジャパン(株)
 
 
Q112. トリガって何? (2009.04.18) (2009.11.10追記)
 
A112. 2000年から市販されている高速度カメラは、撮影画像の保存にICメモリを使っています。
ビデオテープではなくて電子メモリが使われるのは、電子メモリの方が高速で記録できるからです。
反面ビデオテープのように長時間の録画はできません。
多くの高速度カメラでは、2GB〜16GBの半導体メモリを内蔵して高速録画をしています。
このメモリで撮影を続けると、1,000コマ/秒程度の撮影では、1秒から8秒程度で撮影が終わってしまいます。
そのために、カメラは録画をし続け、メモリが無くなった時点で、一番古いメモリの画像データを逐次消しながら新しい画像データをかぶせるように録画を続けます。
そうしますと、どのタイミングで録画を停止するのかが問題になります。
録画停止のタイミングを[トリガ](Trigger)と言っています。
この言葉は、鉄砲の引き金という意味です。計測分野では、「Fire」とともによく使う言葉です。
トリガは、多くの場合、電気信号をカメラに直接入れます。
電気信号は、5V程度の計測用デジタル信号(TTLと呼ばれています)がよく使われます。
また、コンピュータと接続したカメラでの撮影では、操作ソフトウェアに【Trigger】とか、【Fire】ボタンがあって、これをマウスでクリックすることによっても、操作ができるようになっています。
 
トリガの詳細は、アンフィノートNo.3「トリガ」を参考にして下さい。
 
 
 
 
Q113. カメラを固定するのになぜ特殊なネジが必要なの?(2009.04.18) 
 
A113. カメラの底部に空けられたネジ穴は、アメリカが採用しているインチネジを使っています。
一眼レフカメラもデジカメも、すべてカメラの底部にはこのインチネジが使われています。
従って、市販されているカメラ三脚のネジもすべてインチネジです。
とてもおもしろい(というか、面倒な)現象です。
カメラに使われているネジは、JIS規格で言うユニファイネジで、UNC1/4-20という規格です。
呼び径が1/4インチ(φ6.365mm)のもので、1インチ当たり(25.4mm当たり)20山のピッチでネジが切られています。
ちょっと見るとM6ネジに似ています。
カメラネジには、このほかに、大きなカメラ(映画カメラ)を取り付けるネジとして、3/8インチ(UNC3/8-16)ネジがあります。
なぜ、インチネジがカメラの取付ネジとして連綿と今まで続いて来たかと言うと、イギリスとアメリカの経済的な市場規模が大きかったから、と言わざるを得ません。
1980年代までのカメラ産業は、自動車や家庭電化製品などと比べて小さな市場であり、その小さな市場の中のほとんどがアメリカで消費されていました。
カメラは、フィルムを開発したイーストマンコダックの影響が大きく、フィルムができた当時、カメラはフィルムを詰めた箱だったのです。
撮影を終えたフィルムは、箱(カメラ)毎、コダックの現像所に送り、現像と紙焼きがなされ、新しいフィルムが箱(カメラに)再び詰めらて、それらが一緒に返送されました。
我々が知らない写真のビジネスが、1880年代後半のアメリカでできていたのです。(コダックは、このビジネスモデルで巨大企業となりました。)
その箱(カメラ)は、もちろんインチネジで作られていたのです。
1950年代から日本でもカメラが作られるようになったとき、アメリカが依然、大きなマーケットを持ったお客だったので、ネジはインチネジにしました。
誰もこの部分に、声を大きくして異を唱えられなかったのです。
ドイツのライカやツァイスでさえも、彼らのカメラの取付ネジはインチだったのです。
 
 
 
 
Q114. カメラのセッティングはなぜ面倒なの?(2009.04.18)
 
A114. マーケット(市場規模)の問題だと言わざるを得ません。
高速度カメラの市場は、一般のコンシューマ向けと違ってそれほど多くのお客がいるわけではありません。
その上、高速度カメラを使われるお客様は、使用目的が多様化していて目的に応じたカメラシステムを構築しなければならないという事情があります。
例を挙げると、顕微鏡に取り付けて使いたいお客様や、車の衝突実験のために車に載せて使いたいお客様、レーザ光源を使って撮影したお客様、外部からの電気信号でカメラを動かしたいお客様、電動ステージとかロボットに組み込んで、自分たちで操作ソフトウエアを作り込んで操作したいお客様、X線光源で撮影したいお客様など多岐にわたるのです。
オールインパッケージのシステムを作り上げたとしても、それを使って下さるお客様の絶対数はそれほど多くはありません。
レンズなども、オートフォーカスでは、ピントがずれてしまう(高速度で推移するので、オートフォーカス機能がそのスピードに追いつかない)などの不具合も出ます。
そうした意味で、高速度カメラメーカーは、カメラ単体で使いやすい(小型で、画質と感度がよく、操作がしやすい)ものに集中して開発を続けている感じを受けます。
こうした理由から、「誰でも簡単に撮影できる高速度カメラ」というコンセプトでの開発はしにくいのです。
過去、大手電機メーカーが高速度カメラの市場に参入したことが何度かありましたが、彼らが採算に乗る市場規模にはほど遠く、なおかつ、特殊な撮影目的が多いので、長続きはしませんでした。

 高速度カメラ入門 Q&Aトップに戻る

 


 

高速度ビデオ

 
 
Q21. 高速度ビデオと普通のビデオの違いは何?
 
A21. 録画速度が違います。一般のビデオはNTSC規格(2011年までのアナログ規格、現在はSD、HDなどのデジタル規格)に準拠していることは前に述べましたが、高速度ビデオ装置は、録画に関してはこの規格を無視してます。
世の中に出回っている市販品は、全て30コマ/秒で事足りる仕様でCCD撮像素子(もしくはCMOS撮像素子)を作り、この範疇でビデオ素子を開発していますから、それよりも速い動作をさせようとすると、途端にいろいろな不具合が発生します。
場合によっては高速度ビデオ用に素子を新たに開発しなければならないケースが出てきます。
また、いったん高速度で録画した画像を再生する場合には、2000年までのアナログの高速度カメラでは普通のモニターやビデオテープレコーダを使うので、NTSC規格の映像信号を出力する必要が出てきます。
一般のビデオは、再生画像を静止させたり何度も同じ所を繰り返し再生したりする必要性が少ないので、これらの項目に対しては十分な考慮をした設計とはなっていません。
2000年以降、デジタル高速度カメラが普及してきますと、画像の保存はコンピュータ動画(AVI)や連番の静止画ファイル(JPEGやTIFF)でCD、DVD、HDに保存することが多くなりました。
高速度ビデオでは、録画画像は、静止させたりスロー再生、ループ再生をするのが大前提ですから、静止したときに画像がシャープでなければなりません。
その意味でシャッタ機能(1/50,000秒などの短時間露光)のあるカメラは重要です。
任意にストップできる再生機能も必要です。
1コマ毎に画像にフレーム番号がスーパーインポーズされていると時間カウントするのに便利です。
 
 
Q22. テレビとビデオとどう違うの?
 
A22. テレビは、放送局を通じて電波を媒介とした映像を指すことが多く、ビデオは家庭用カメラからVTRを通じた映像を指します。
従って、町のレンタル屋で借りて来て見る映像はビデオで、NHKから送られてくる放送番組は受像機を含めてテレビと読んでいます。
放送局から送られてくるテレビ信号は、NTSC信号(Q23.参照)といって1950年当時から決められている規格であり、その画質は現代ではそぐわない性能が規定されています。
従ってコンピュータなどは、この規格とは別の仕様でモニタ表示をするようになりました。
これらを全てビデオと称しています。
 
 
Q23. NTSCって何?
 
A23. アメリカ、日本(カナダ、メキシコ、韓国、フィリピン)が放送用として2011年まで採用してきたテレビジョン放送規格です。
正式にはNational Television System Committeeといって1950年代にその骨格ができました。
従って、コンピュータが扱う画像フォーマットや規格とは別のものです。
性能はもはや最高とは言い難くなりましたが、最も影響力のある規格(どの家庭、どの機関でも深く浸透しているため)であるためコンピュータにしろ、高速度カメラにしろ、ビデオカセットにしろ対応しなければならない規格です。
 
骨格の主なものは、以下の通りです。
 
1. 送信速度は、一秒間に30画面、一画面525本の走査線。
縦横の画面比は、3:4。有効画面は、垂直490本(525本の93.5%)分。
水平走査時間は、52.7us(63.5usの83%)。
 
2. 表示は、1つの画面を2回に分けて表示する、2フィールド1フレームのインタレース(飛び越し走査)方式。
飛び越し走査を行わないと、画面の最初と最後で電子ビームのスキャニング遅れのために明るさにムラができてチラツキの原因となった。
 
3. カラー画像も白黒画像も互換性のある映像信号とし、白黒受像器でもカラー信号映像を受信できるCompatibility(=互換性)を満足させた映像信号とした。
これが、NTSCの根本規格であった。
白黒テレビの信号帯域にカラー信号を押し込んだために、NTSC規格のカラー画像では細かい部分(63TV本以上)についてカラー情報が省かることになった。
 
 
【NTSC詳細説明】
カラーカメラから得られるR.G.B.映像信号成分のうち、輝度信号EY、色信号EI、EQ信号をマトリクスによって取り出す。
本来は、RGB信号を直接送りたいのだが、カラー放送以前の白黒テレビが輝度信号だけを送っていたので、輝度信号を基本として、この輝度信号に加えて受像機側で原色信号を作り出せるよう色差信号を送っている。
具体的には、カラーカメラで得られるR,G,Bの原色信号から、輝度信号EYを差し引く処理(輝度信号の極性を反転して加え合わせる)を行っている。
この場合、必要な色差信号は、ER-EY、EG-EY、EB-EYの三つになるが、EYの輝度信号には、もともとR,G,B成分が入っていることから、実際には、ER-EY、EB-EY信号だけを作って送信し、EG-EYは、受像機側で作り出すようにしている。
次に、一つの副搬送波(3.58MHz)をEI、EQ信号で直角変調(2相変調)し、EY信号に多重化する。
この変調された信号は、搬送波色信号ECと呼ばれる。
輝度信号と重畳された色差信号の副搬送波周波数が、3.58MHz(正確には、3.579545MHz)に決定されたのは、できるだけ高い周波数で輝度信号との混信を避けるためと、水平周波数の奇数倍であれば混信された信号も画面の中で拡散して目立たないという理由で、 fH/2 x 455 = 3.579545 MHz  と決められた。
fHは、白黒では、15.75KHzであるが、カラーでは15.73426KHzである。この時の垂直周波数は、59.94Hzとなる。
60.00Hzではなく59.94Hzになった理由については、『よくわかるテレビ・放送技術』(長坂進夫・渡辺詔二・小野義一・小山賢二 著 オーム社1998.1.20初、p51)、もしくは、「光と光の記録 - 記録編 29.97フレーム/秒の怪」を参照のこと。
NTSCでは、人間の目の特性と限られた割り当て周波数帯域から、画面内の色の付いた比較的大きな絵柄(500Hz以下)に関しては輝度と色に関する全情報を伝送する。
画面内で比較的小さな絵柄(500Hz〜1.5MHz)に関しては輝度と色差視力の高いオレンジ〜シアン(I軸成分、EI信号)を送り、Q軸は省略する。
1.5MHz以上の非常に細かい絵柄の部分に対しては、輝度情報しか伝送しない。
 
4. 送信帯域は、AM変調した映像信号とFM変調音声信号を重畳(ちょうじょう)させ、90MHzから6MHzごとにチャンネルを割り振っている。
従って、チャンネル1(東京地区はNHK総合)は、90 - 96MHz、チャンネル2は96 - 102MHzという具合になる。
この中で、映像信号として割り当てられている周波数は4.2MHzである。
また、少し詳しく述べると、NTSC規格では、走査線1本の走査する時間が53.3μsと決められているため、おのずと水平方向の解像力が決って、447本が放送での限界水平解像力となる。
 
送信帯域が6MHzあるのに、信号帯域が4.2MHzしかないのは道理に合わないと思われるかも知れない。
映像信号は4.2MHzなので側波帯も含めて左右合計8.4MHzの帯域(両側波帯=DSB通信方式)が欲しいのだが、すべてを確保できないので、下側側波帯を少し詰めた(-4.2MHzを-1.25MHzに詰めた)残留側波帯(VSB = vestigial side band)方式を採用している。
 
5. 垂直有効走査線は、490本。実際には、解像力チャートの横縞模様が飛び越し走査の影響で発生するインタラインフリッカにより、その70%、すなわち350TV本が限界。水平解像力は、垂直350TVを基に縦横等方的になるように取り決め(アスペクトが3:4であるため460本)、これより映像信号の帯域4.2MHzが決められた。
NTSC方式の理論的な限界解像力は、水平658本といわれている。
 
有効走査線 = 525本x0.94=494本(6%は元に戻るために必要な帰線時間)
494本の縦に対する横の本数は、
 
   494 x 4/3 = 658本
 
これより、電波に乗せないNTSCの最高解像力は、658 x 494!となる。
これは、VGA(コンピュータでIBMが決めたディスプレー表示規格)の640ドットx480ドットに似ている。
この解像力を電波に乗せると6.2MHzの帯域が必要でとなる。
 
NTSC規格は、白黒テレビジョンの電波が送信された頃からの規格です。
カラー化に伴って従来の白黒テレビも受像できるようにしなければならないことを第一目標とし、信号周波数帯域も送信チャンネルの割当の関係上、制約をかせられてきめの細かい映像を送れないなどの問題点を抱えながら、妥協を強いられていた歴史を持ちます。
 
なお、国際的な規格としては、イギリスなどのヨーロッパ諸国(ドイツ(旧西ドイツ)、イギリス、イタリア、オランダ、インド、オーストラリア、中国)が採用しているPAL(パル = Phase Alternation by Line)規格、ロシアなど旧社会主義国(フランス、ロシア、ドイツ(旧東ドイツ)、ハンガリー、ポーランド)が採用しているSECAM(セカム = Sequenticel Couleur A Memoirre[フランス語])方式があります。
これは、日本のNTSC方式とは違う送信方式なので、日本のテレビやビデオを海外に持って行っても何も映らないという悲劇が生まれます。
しかし、フランスはどこまでも歩調をとらず社会主義国と仲がいいんだなと思ってしまいます。
 
NTSCは、米国の通信規格(米国EIA = Electric Industries Association、米国電子工業会)にも取り上げられRS170という規格にも取り上げられたため、RS170としても知られています。
 
参考:最近読んだ本の中で、この件に関し面白いエピソードがありましたので紹介しておきます。
梅崎隆夫 著 「パソコン難民救済読本」1997.4.21初版 (株)光人社
【NTSCとPAL】 NTSC方式は、アメリカを中心とした諸国に採用され、PAL方式はヨーロッパ諸国で採用されている。
この二つの方式が残ってしまった原因については、日本にその原因がある。
テレビジョンの発明と商品化は、もちろんアメリカにおいてスタートした。
とくにカラーテレビの技術については、圧倒的なアドバンテージがあった。
にもかかわらず、GEやウェスチングハウスなどのメーカーは、ことごとくテレビ市場から撤退してしまった。
なぜか?
日本メーカーのダンピング攻勢によって市場がテイクオーバされたのだ。
よくいえば改良・改善、悪くいえば、“サルマネ”とののしられるメイド・イン・ジャパン製品は、あらゆる工業製品市場を独占した。
日本では高度成長期と呼ばれる時代も、欧米諸国にとっては悪夢の時代でもあった。
アメリカにおけるテレビの生産量は、極度に減少したが、その分、安いカラーテレビが市場にあふれたことで、国民はこれを歓迎した。
だから、問題にすらならなかった。
しかし、ヨーロッパの反応は違った。と、いうより、フィリップスは、日本メーカーの勢いに恐怖した。
 
“ヨーロッパ製テレビ”が生き延びるには?
 
映像方式を変えるしかない。
そこで浮上したのがPAL方式である。
NTSC方式との互換性をなくすことで、純ヨーロッパ製テレビは生き残った。
もちろん、日本メーカーだってPALテレビを作ることは可能だし、現にVTRはメイド・イン・ジャパンの嵐が吹き荒れている。
貿易不均衡問題が生じたときなど、ニースの港には日本製VTRが山積みされている光景を見かけることがある。
方 式 
項 目
NTSC方式
(日本、アメリカ)
PAL方式
(ドイツ、イギリス)
SECAM方式
(フランス、ロシア)
走査線数[本]
525
625
毎秒送像数[枚]
30
25
飛越走査
2:1
フィールド周波数[Hz]
60
50
ライン周波数 fH[Hz]
15,750
15,625
横縦比
4:3
映像周波数帯域[MHz]
4.2
5(5.5)
6
チャンネル帯域巾[MHz]
6
8
主側波帯幅[MHz]
残留側波帯幅[MHz]
4.2
0.75
5(5.5)
0.75(1.25)
6
映像の変調方式と極性
VSB・負変調
VSB・正変調
音声変調方式
FM
FM(AM)
周波数偏移[KHz]
±25
±50
- (±50)
音声搬送波周波数[MHz]
+4.5
+5.5
+6.5
色副搬送波周波数[MHz]
3.58
4.43
fR=4.41
fB=4.25
色副搬送波の変調方式
搬送波抑圧
直角二相変調
FM
特  徴
受像器台数が一番多い。
説明済み
採用国数が一番多い。
位相ひずみによる影響を避けるためテレフンケン社のW.Bruchの案を採用:
2つの色差信号(R-Y、B-Y信号)のうち、1つの色差信号(R-Y信号)の位相を走査線(ライン)毎に交互に反転。
具体的には、B-Y信号の副搬送波の位相は固定(0°)して、R-Y信号は走査線ごとに交互(90°と270°)に副搬送波の位相を切り換えて、搬送波抑圧直角2相変調を行う。
2つの色差信号(R-Y、B-Y信号)を走査線ごとに交互に切り換え、それぞれに違った二つの副搬送波(fR=4.41MHz、fB=4.25MHz)で周波数変調して、輝度信号EYに加え合わせている。
副搬送波周波数は、従来4.43MHzの1波であったが、副搬送波のドット妨害を軽減するため1966年から2波用いるようになった。
長坂進夫・渡辺詔二・小野義一・小山賢二 『よくわかるテレビ・放送技術』オーム社1998.1.20初 より抜粋(1998.08.14)
 
 
 
 
Q23-a. ITVと呼ばれるテレビはどんなテレビ?
 
A23-a. ITVとは、Industrial Televisionの略です。
テレビが公営放送以外に工業分野や一般研究目的に使われだしたため、放送用テレビジョンと切り離して使われました。
1970年代に流行った言葉です。
医学、天文学、校内テレビ、テレビ電話、軍事、海洋などに普及しました。
医学、天文学では、画質、感度が求められ、軍事、海洋学では赤外域に感度があるカメラが求められ、これらは放送用規格とは異なった規格でした。
その理由は、広範囲な産業分野や研究開発分野では放送テレビカメラより解像力を要求するものであったり、別の分野では放送テレビより送信画像が低かったりしたからです。
1980年代に入ると、パーソナルコンピュータが発達し、IBMを中心とした新しいビデオ表示規格が台頭し、VGA、SVGAなどの規格が独自に作られるようになりました。
これらは、ハンディカムなどのビデオカメラの普及とともに、ビデオという言葉に置き換わりました。
ITVの映像信号は、NTSC信号の他にRGB信号、TTLデジタル信号、インターフェースを介したデジタルフォーマット出力などがあります。
この言葉は、コンピュータを使ったビデオカメラシステムやデジタル放送が始まるようになって使われなくなりました。
 
 
Q23-b. CCTVと呼ばれるテレビはどんなテレビ?
 
A23-b. CCTVは、Closed Circuit Definition Televisionの略です。
ITVが広範囲になったため、ITVに代わって使われました。
監視カメラ、地域放送(社内放送、校内放送)などにこの言葉が広く使われます。
採用しているテレビは、NTSC規格のビデオ信号が主だったのですが、最近ではR.G.B信号のシステムやコンピュータ用の信号規格に代わってきています。
工業製品の寸法などを測る(FAとかマシンビジョンと呼ばれています)分野でもCCTVシステムが使われます。
NTSCの3:4という規格のCCDカメラでは、寸法に誤差ができて具合が悪く、正方形状のCCDカメラが出現し、コンピュータに直接取り込むための640x480画素VGA、1280x1024画素SVGA規格デジタル転送までがこのジャンルに含まれるようになりました。
最近では、プログレッシブスキャンタイプ(全画素読み出し)CCDという新しいCCDカメラが発売され、高画質でシャッタリング機能を備えたカメラが入手できるようになりました。
 
 
Q23-c. IDTVと呼ばれるテレビはどんなテレビ?
 
A23-c. IDTVは、Improved Definition Televisionの略です。
NTSC規格での放送側は現行のままのテレビ信号を送り、受像機のみの改善で高画質とするものです。
飛び越し→順次走査となるのが主な特徴です。
このためインタラインフリッカが減少し、実用上350TV本だった垂直解像力が25-30%向上します。
この言葉は、デジタル放送が始まるようになって使われなくなりました。
 
 
Q23-d. EDTVと呼ばれるテレビはどんなテレビ?
 
A23-d. EDTVは、Extended Definition Televisionの略です。
受像機のみならず放送局側にも手段を講じてゴースト除去、高彩度部分の解像度劣化防止を目的としました。
日本ではクリアビジョンとして実用中です。
この言葉は、デジタル放送が始まるようになって使われなくなりました。
 
 
Q23-e. HDTVと呼ばれるテレビはどんなテレビ?  (2009.05.20追記)
 
A23-e. HDTVは、High Definition Televisionの略です。ハイビジョンテレビとも呼ばれています。
アナログ信号から出発しました。
アナログのハイビジョンテレビは、NHKが開発したものでNTSCの2倍以上の走査線数を持つ放送規格でした。
走査線が1125本であり、画面アスペクト9:16、60フィールド30フレーム、輝度信号帯域30MHz、色信号R-Y、B-Yともに30MHzで送信していました。
このハイビジョンテレビは、1985年のつくば万国博に実用に耐える放送システムが完成し、MUSEを使った送信を圧縮する規格で通信が開始されました。
衛星放送も試験運用が続けられ、大相撲中継やオリンピック、劇場中継などの放送が行われました。
このデジタル放送は、2007年9月に放送を中止しています。
現在は、アナログ放送に変わって、デジタルハイビジョンが放送されています。
この放送は、地上デジタル放送と衛星放送の2種類があり、それぞれ以下の解像力と画面構成で送信されています。
 
・ 1920画素x1080画素(インターレース)  --- 衛星放送によるデジタルハイビジョン(画面比 16:9)
・ 1280画素x720画素(プログレッシブ)  --- 地上デジタル放送によるデジタルハイビジョン(画面比 16:9)
・ 1440画素 x 1080画素(インターレース)  ---  地上デジタル放送によるデジタルハイビジョン(画面比 4:3)
 
 
 
Q23-f. なぜテレビの映像速度は、電源周波数と同じなの? (2004.04.25)
 
A23-f. なるほど、米国で発明されたテレビジョンは、1秒間に30枚の映像を作っていました(正確にいうとフリッカーをなくすために一枚の映像をさらに2枚のフィールド画像にわけて=インタレースによる画像にして、60フィールド/秒、30フレーム/秒としていました)。
この値は、米国の電源周波数60Hzと一致します。
さらに面白いことに、ヨーロッパのテレビ(PAL規格)は、50フィールド/秒、25フレーム/秒となっていてヨーロッパの電源周波数50Hzと一致します。
テレビジョンの規格を作る時、電源周波数がなんらかの影響を与えていたことは明白です。
答えは、当時のテレビジョン受像機(ブラウン管 =CRT)が、電源周波数に合わせて画像を作らないと見え具合が悪くなったからです。
見え具合というのは、ブラウン管の画像が電源周波数に応じて大きくなったり小さくなったりして歪むのです。
ブラウン管は、大きな真空管の一種で、大きなタマネギのような形をした内部では電子が飛び出して蛍光面にあたって光を発しています。
電子を飛び出させるためには、高い電圧が必要で、そのためにブラウン管には高圧発生器が内蔵されています。
その高圧発生器も、商用電源から高圧を作るためにきれいな高圧直流電源電圧を作ろうとしても、電源周波数の変動が若干残ってしまいます。
これをリップルと呼んでいますが、これが真空管のアノード電圧(電子銃から蛍光面に電子を飛び出させる主電圧)を変動させて、偏向のかかり具合に影響を与えるのです。
古いテレビ受像機で、高圧電源発生器が弱っていると、画像が明滅に合わせて膨らんだり縮んだりすることを経験されたことあるかも知れません。
当時の技術では、リップルの少ない高圧電源ユニットを安価にコンパクトに作ることが困難だったのです。
電源周波数と映像の再生速度が異なると、歪みの垂直位置が両者の差成分でくり返し現れて、画面の揺れとなってとても見づらいものになります。
電源周波数と映像周波数を同じにすると、歪みの位置が静止するので画面が揺れて見えることはなくなるのです。
テレビは、本当は電源周波数(60フレーム/秒)で映像を送りたかったんでしょう。
けれどこうするととても膨大な情報になり電波に乗せられないために、画像を間引きして半分にするインタレースという方式を考え出しました。
 
 
Q23-g. これからのテレビはどうなるの? (2004.04.25)(2011.09.24追記)
 
A23-g. NTSCは、1950年代後半にできた規格です。
白黒映像時代からの規格です。その後60年の間にテレビ技術は驚くほど進歩しました。
新しい時代は着々とやってきています。ハイビジョンによってテレビ規格は大きな風穴があけられ、デジタル技術によってデジタル放送まで可能な時代になりました。
また、目を転じてパソコンの世界に目をやると、パソコンの世界でのNTSC規格はほとんど無力に近いことがわかります。
パソコンの世界では、公共性という縛りがなかったため画像のデジタル表示がいち早く進みました。
640x480画素から始まったVGA規格も、2,000画素x2,000画素まで扱える表示になって来ました。
テレビ放送は、2011年7月から完全にデジタル放送になりました。
1941年から半世紀以上にわたって続いたNTSCアナログ放送規格も終焉の時を迎えたのです。
2010年以降は、携帯電話やカーナビでのテレビ受像、ケーブルテレビ、衛星放送などのメディアの多様化が進み、映像もデジタルに大きく傾いて行くことは否めない事実のようです。
 
 
Q23-h. NTSCの映像が29.97フレーム/秒となっているのはなぜ? (2004.04.25)(2010.03.26追記)
 
A23-h. 上でも述べましたが、NTSCは1950年代後半にできた古い規格です。
これは、白黒時代からの規格であり、当時画像は、1秒間に30枚の割り合いで作られていました。
しかし、カラー映像の時代になると、この撮影速度では、ビートが現れ色が正しく表現されなくなりました。
このビートを押さえるために水平周波数を見直して、干渉が出にくく(ビートが出ず)且つ現行の周波数にもっとも近い周波数である、15,734Hzがきめられました。これは周波数インターリーブを考慮した値だそうです。
30フレーム/秒の時の水平周波数が15,750Hz(30 x 525 = 15,750)ですから、16/15,750分だけ周波数が低くなりました。
画面の走査線数は減らすことができないので結果的に映像速度を若干落として(16/15,750分だけ落として)、29.970フレームとなりました。
これによって、旧来からの白黒受像機を使ってもカラー信号が受信でき、しかも白黒表示ができるというコンパーティビリティ(互換性)を確保しました。
 
 
Q24. どんなタイプの高速度ビデオがあるの? (2004.12.05 改)
 
A24. 下のブロック図が高速度ビデオカメラのタイプ別に見た構成です。
一番右側が製品のモデルです。
X 印は、2004年現在製造中止のものです。
カメラは、2004年以降いろいろなメーカからたくさんのモデルが出ました。
この図を見ますと、現在では、カラー録画でICメモリ、固体撮像素子を用いた高速度ビデオが生き残っていることがわかります。
 
 
   
1980年から2004年までの高速度ビデオカメラシステム。
 
 
Q25. ICメモリ方式の記録ってどんな方式? (2004.06.16追記)

 
A25. ICメモリによる録画方式は、カメラからの画像情報をコンピュータで良く知られているDRAM(Dynamic Random Access Memory)に一時的に記録する方式です。
高速度カメラにDRAMが使われるのは、記録媒体の中で記憶速度が一番速度が一番速いからです。
メモリがいっぱいになると、一番最初のデータを消して新しい画像データを上書きしていきます。
この動作を繰り返して、記録状態を停止する信号(トリガ信号)が入力されるまでループ録画を行います。
記録状態を停止するトリガモードには大きく分けて3種類あり、トリガ信号で録画を始めるスタートトリガと、現象の前後を録画するセンタートリガ、現象の前を録画するエンドトリガに分けられます。
この記録方式は、デジタルオシロの記録(storage)モードと良く似ています。
    
 
 
 
 
 
Q25-a. 高速度ビデオカメラの記録タイプにはどんなものがあるの? (2004.04.25)(2011.09.24追記)
 
A25-a. 高速度カメラは、通常のカメラに比べて限られた時間に信じられないくらいのたくさんの映像を取り込まなければならない関係上、その映像を記録するメディア(媒体)も高速での読み込みができるものでなけらばなりません。
 
ビデオ信号を記録できるメディアを思いつくままにあげてみますと、以下のものがあげられます。
 
 
1. 1インチ幅ビデオテープ - 磁性体記録媒体の初期の頃の媒体。アナログ記録。
2. 3/4インチ U - matic ビデオカセット - カセットローディング方式。アナログ記録。放送用に使用。
3. 1/2インチVHSビデオカセット - 映像信号を約2時間録画再生可能。アナログ記録。
4. 1/2インチベータフォーマットビデオカセット - 映像信号を約2時間録画再生可能。現在は放送用に使用。
5. 8mmビデオテープ - 一体型ビデオレコーダで普及。アナログ記録
6. 1/4インチMEテープDV(デジタルビデオ)カセット - 6.35mm(1/4インチ)幅の金属蒸着テープ。デジタルカムコーダに使用。
7. FDD = フロッピィディスク - 1.44MBの記録容量。
8. CD(コンパクトディスク) - 750MBの記録容量。
9. MD(ミニディスク) - 140MBの記録容量。CDの約1/5の容量。音楽ソースを記録・再生。
10. DVD - 4.7GBの記録容量。映画をMPEG圧縮で2時間程度録画可能。
11. BD(ブルーレイ) - 青色半導体レーザを使った光ディスク。23.3GBの記録容量。ハイビジョン映像を3時間録画。
12. HDD(ハードディスクドライブ) - 360GB〜1TBの記録容量、RAIDを使った高速大容量記録。
13. DRAM(ダイナミックRAM) - 2GB〜32GBの記録容量。高速読み書き可能。
14. フラッシュSSD(Solid State Drive、Solid State Disk) - 32GB 〜 256GB
 
 
この中で高速度ビデオ装置として採用されてきたメディアは、1、3、12、13、14の5種類です。
1980年代初めの初期高速度ビデオ装置は、磁性体のテープを使っていました。
ビデオテープを高速で走らせる関係上撮影速度には限界があり、一般的に500コマ/秒が限界でした。
10,000コマ/秒程度の記録ができる高速度ビデオ装置も開発されましたが、画像サイズが小さくなったり、ヘッドの目詰まりやテープの使用頻度の限界など運用上多くの制約がありました。
しかし、長時間録画という点では現代のICメモリを使ったものより長時間の録画ができるので、2000年代中頃まで市販のVHSテープを使用した高速度ビデオ装置が製造されました。
安価なデジタルメディアであるフロッピィディスクやCDは、高速でデータを書き込むことができません。
24倍速のCDは60分の音楽データ(650MB)を150秒で書き込む能力を持っていますが、これは4.33MB/秒の能力であり、画像情報を記録することを考えた場合、640x480画素の白黒画像を14コマ/秒で録画する程度の能力となります。
この能力では高速度カメラの記録にはちょっと足りません。
画像の容量は、音声データなどに比べて桁違いに容量が多いので、圧縮という技術を使って限られた記録媒体に記録しています。
それがJPEGと呼ばれるものであったり、MJPEGであったりMPEGと呼ばれるファイルフォーマットです。
ただし、圧縮ファイルは圧縮を行うのに時間がかかるので、高速度カメラで撮影した画像をそのスピードで処理して保存することはほとんどされていません。
RAMメモリに一旦画像を取り込んでおいて、後でそうした処理を行って希望する記録メディアに保存するというのが一般的です。
圧縮した画像は、計測の観点からは必ずしも歓迎できない部分があるものの、高速で画像を取り込みたいというニーズからは避けて通れないものかもしれません。
画像計測分野では、解析のしやすい一枚一枚独立した画像で保存のできるJPEGフォーマットでの取込みを多く見受けます。
 
DVDは、4.7GBという大容量の記録を持つメディアですが、このメディアを直接カメラから記録するという高速度ビデオ装置はありません。
理由は、高速度カメラからの情報に記録メディアのスピードがついて行かないからです。
市販のビデオ装置にはDVDに直接書き込むものも出回りはじめています。
こうした装置は記録にMPEGと呼ばれるフォーマットを使っています。
このファイル形式は記録容量が飛躍的に伸びるものの、圧縮処理に時間がかかるため撮影と同時に変換処理を行うことはできません。
また、計測の観点からは薦められません。
画像のファイルフォーマットに関しては、Q32. 画像ファイルはどのような形式があるの?を参照して下さい。
 
ハードディスクは、2000年代初めに高速で書き込みができるようになり、これを使ったカメラ装置では長時間録画が可能になりました。
 
現在の所、もっとも高速に書き込みができる記録媒体がコンピュータのメモリに使われているDRAM(ダイナミックランダムアクセスメモリ)と呼ばれるメモリです。
60nsの間隔でメモリをリフレッシュできるので、この素子をうまく使うことにより、1508 x 1128画素のカラー情報を1秒間に1,000コマ/秒の割り合いで約1.2秒にわたって録画できる高速度ビデオ装置が作られるようになりました。
この画像の情報速度は、1.7GB/秒になります。
1秒間に1.7GBのデータを保存するというのは他のメディアでは考えられないことです。
 
 
Q26. 固体撮像素子って何?
 
A26. 固体素子という場合には、必ず固体でない電子管(Tube、Valve)の時代があったことを暗に示しています。
トランジスタが固体素子(solid state)と呼ばれたとき、その意味の反対側には、トランジスタが真空管に取って代わったという意味がありました。
CCDなどに代表される固体撮像素子の場合も同じで、言外に電子撮像管に取って代わったという意味があります。
CCD、MOSなどが実用化されたのは1970年代に入ってからで、それまではテレビのブラウン管と似たようなビジコンと呼ばれる電子チューブが使われていました。
詳細は、「光と光の記録」の中の撮像素子 - - -CCD(Charge Coupled Device)素子を参照して下さい。
CCDをはじめとする固体撮像素子は、LSIのような高度集積回路技術を基にして、製造技術をさらに進化させて作られたシリコン半導体製品なのです。
固体撮像素子の成熟にはSonyの功績が大でした。
 
 
Q26-a. CCD素子とCMOS素子って何? (2001.01.22)(2009.11.10追記)
 
A26-a. カメラの固体撮像素子の種類です。
詳しい説明は、「光と光の記録」撮像素子 - CCD撮像素子 - MOSを参照下さい。
テレビカメラが作られた時代(1950年代)から1980年代までのカメラの撮像素子は、電子管と呼ばれる真空管方式の撮像管が使われていました。
この撮像管は、真空管で言われているような欠点がありました。
これをトランジスタ技術によって固体素子化しようとしたのが固体撮像素子で、その代表的なものがCCDとCMOSと呼ばれるものでした。
固体素子でできた撮像素子は、シリコン基板に複数の受光素子をトンボの複眼のように配列して画像を取り出す仕組みになっています。
素子の製法の仕方や画素の読み出し方の違いにより、CCDとCMOSの2種類が開発され市販化されました。
固体撮像素子は、このほかにもいろいろな種類が開発されてきました。
CCDは、Charged Coupled Deviceと呼ばれるなんだか意味のよくわからない名前の頭文字からきています。
名前の付け方からわかるようにCCD素子はカメラ用の撮像素子として開発されたわけではなく、1970年に米国ベル電話機研究所でメモリの一手段(磁気コアメモリとかICメモリとか、フロッピーディスクとか、MOなどと同じジャンルの素子)として開発され、メモリの保存、転送デバイスとして期待されました。
CCDを開発したベル電話機研究所のスミスとボイルは、2009年のノーベル物理学賞を受賞しました。
光によって情報が蓄えられ転送されるというCCDの仕組みに注目して、日本のソニーをはじめとしたメーカーがビデオカメラ用の撮像素子として開発に取り組みました。
片やCMOS素子は、1967年に半導体のトップメーカー米国フェアチャイルド社のWeckler氏によって発表されました。
両者は、1980年代に「次代を担う固体素子は自分たちだ」、という意気込みで激しい市場開拓を行います。
しかしながら、1980年代後半から1990年代後半までは、CCD素子の一人勝ちのような状態で、ビデオカメラと言えばCCDというのが当たり前になり、「CCDカメラ」という言葉まで一般名詞として知られるようになりました。
CMOSカメラは、1980年代から日立が製品化に成功し、SonyのCCDカメラと競争をしてきましたが、市場を制覇することができず、1990年代後半には撤退を余儀なくされます。
しかし、1990年終わりになって、再びCMOS素子の良さが見直されて再び活況を呈してきています。
2000年代はCMOSの時代と言われています。
 
両者の特徴(2010年までの技術)をかいつまんで紹介しておきます。
詳細は「光と光の記録」撮像素子-CCD撮像素子-MOSを参照下さい。
 
CCD:
・電子シャッター内蔵
・転送方式により転送速度の高速度化が難しい(1,000コマ/秒程度が限界。)
・受光量が大きい(16ビット階調のCCDも開発されている)
・画質がきれい
・高感度化に対応しやすい
・消費電力が大きい
 
C-MOS
・電子シャッターは基本的に不可能
   (2000年より、電子シャッタ内蔵のものが開発、ただし、この場合開口率が低くなる)
・転送方式が高速度化に向いている(高速度カメラによく使われる)
・任意の画素の読み出しが可能
・構造的にノイズが多い
・相対的に感度が低い
・CCDに比べて製造しやすい
・消費電力が少ない
 
 
 
Q26-b. 固体撮像素子の性能を決める要素は何ですか? (2001.06.30)(2009.05.20追記)
 
A26-a.  固体撮像素子カメラの画質の性能を決める大事なパラメータは、撮像素子の画素数、画素サイズ、イメージサイズ、受光容量、開口率、読み出し速度、電子シャッタ機能などです。左の図が固体撮像素子の模式図です。
固体撮像素子は精度の良いシリコン平面板に微細加工を施してシリコンのホトダイオードを作りあげ、一つ一つを埋め込んであります。このホトダイオード1つを1画素(または1ピクセル)と言っています。
 
 
■開口率:
 
撮像素子を構成している1画素面は、全てを受光部というわけではなく、画素の中のある部分のみをホトダイオード部としているため、撮像素子に入射する光をすべてホトダイオードで受けていません。
この受光部面積と、素子面積の比を開口率(Fill Factor)と呼んでいます。
CCD撮像素子は、数種類のタイプのものがありますが、その中の最もよく使われているインターライントランスファ型CCDでは、同一平面内に受光した電荷を電気信号として取り出すための転送部を配置しなければならないため、開口率が小さくなります。
フレームトランスファー型CCDは、電荷転送を画素を使って転送するために、つまり、素子上に電荷を転送する専用の道がないために開口率を100%とすることができます。
解像力を述べるとき、画素数よりもこの開口率が大きく影響を及ぼすことがあります。
このところはQ26-c.で詳しく述べます。
 
■イメージサイズ:
 
1画素のサイズ(Ph、Pv)が決まって、画素数(Mh、Mv)がわかっているとその掛け合わせでイメージサイズ(Ih、Iv)がわかります。
 
    Ii = Pi x Mi    (i = h、v)
 
イメージサイズは、その大きさを一般的に1インチ型、2/3インチ型、1/2インチ型、1/3インチ型という言い方で呼び、この呼称でだいたいの大きさがわかるようになっています。
大きいイメージサイズの撮像素子を使うメリットは、画素サイズが大きいためたくさんの電荷を蓄えることができ相対的に感度の高い素子とすることができます。
また、カメラレンズも作りやすく性能の良い通常のレンズが流用できます。
イメージサイズが小さい素子のメリットは、コンパクトなカメラができる可能性があることと、製造上同じ大きさのウェハーからたくさんの撮像素子が出来上がるのでコストが下がり安価になることです。
私のように、映像を計測手段とした仕事に従事していますと、CCDなどのような固体撮像素子はできるだけ大きいものがうれしく感じます。
撮像素子が1インチ程度のものですとニコンFマウントのニッコールレンズが使用でき、広い範囲を撮影する際にも焦点距離の短いレンズを用意しなくてすみ、また画素も大きいため感度の高い素子となります。
レンズメーカーも小型撮像素子用のレンズを作るのは難しいと言っています。
例えば、1/3インチサイズ(4.89mm x 3.66mm)のCCDでは、768(H)x 494(V)画素のものが出回っていますが、この素子の1画素当たりのサイズは6.37um相当となります。
この値は、重要な意味をもっています。結論から言いますと、小さくて高解像力撮像素子を満足するレンズ製作は理論的に極めて困難だということです。
その理由は、英国の物理学者レーリー(Reyleigh)が導き出したレーリーの回折限界で説明されるように、光の特性上、結像面に光がうまく結ばずに光が回り込んでボケがでてしまうというものです。
レーリーの導き出したボケ量(許容錯乱円)dは、以下の近似式で表されます。
 
 d = 2 x λ x F
   d:許容錯乱円
   λ:波長
   F:レンズ絞り
 
この式によりますと、λ = 550nm、F = 5.6の条件で、d = 6.16umとなり、レンズをF5.6以上に絞り込むと解像力が撮像素子の1画素以上にぼけてしまいます。
従って、今後は小さな撮像素子では、むやみに細かな画素のものは出てこないように思われます。
撮像素子のイメージサイズが大事な理由の一つが、こうしたレンズとの相性なのです。
 
■受光容量
 
1画素に光を蓄えることができる能力を受光容量とか受光電荷と呼んでいます。
当然、画素サイズが大きいものや開口率が大きいものほど受光電荷量が大きくなります。
この受光容量に関しては、CCDカメラ素子は色々なタイプのものが出回っていて、それぞれに特徴があって簡単に言い表せないのですが、フレームトランスファタイプのCCDカメラで電子冷却を備えている素子ほど受光容量は多く、インターライントランスファ型のように受光面積が小さいものほど受光容量は小さい傾向にあります。
この受光容量の度合いが、画像の濃度情報に影響を与えます。受光容量の大きいものは16ビット(65,500階調)のものがあり、通常は8ビット(256階調)です。
シリコンによるフォトトランジスタは、基板の熱によって電荷をランダムに発生してこれがノイズとなります。
光によって蓄えられた電荷と熱電子によって運び込まれるノイズによって信号と雑音信号の比(S/N比)が決まりますが、画質の良いCCDはこのS/N比がよくノイズに影響されないキチンとした信号成分を取り出すことができます。
撮像素子のノイズは、熱電子の他に、アンプ雑音(受光部で検出した光電荷を増幅するときに生じる初段トランジスタ発生ノイズ)、リセット雑音(読み出しのリセットをする際に発生する雑音)、光ショットノイズ(入力光そのもののノイズ)などがあります。
物理学用途に使われるフレームトランスファ型CCDは16ビットのものが多く、高速度カメラ用には8ビットが一般的です。
 
 
 
Q26-c. 固体撮像素子の解像力ってどうやって決まるの?(2001.06.30)
 
A26-c.  固体撮像素子の解像力を決めるのは、撮像素子の持つ画素数が大きな要因であることは間違いありませんが、それだけではありません。
開口率が解像力に大きな影響を与えます。
開口率が100%の時の解像力の考察については、「Q104. 高速度カメラの性能要素はどんなもの?」の「・像解像力」の所で紹介しています。
 
固体撮像素子の解像力は、画素数の半分と見なしておけば無難というのが開口率100%のCCD素子の結論でした。
(一般のカメラでは光学フィルター = LPF、ローパスフィルターが撮像素子上に取り付けられていて、画素数の半分以上の周波数を持つ細かな画像情報をカットしています。)
固体撮像素子は、画素数分のサンプリングを間違いなく行います。ですから、ある程度大きな物体を撮像する際には(つまり数10ピクセル分に相当する物体を撮影する場合には)カメラの分解能は撮像素子の画素数に相当します。
しかしながら、できるだけ小さなものを解像したい場合に、単純に画素数の逆数分の1の大きさまで撮影できる保証はありません。
この項では開口率が100%ではなく、もっと小さい開口率の場合に解像力はどうなるか、という質問に対する考察です。
右図がその考え方を示しています。
結論から言えば、開口率が低いと小さな物体は解像せず、画素間と同じピッチで配列されている像パターンでさえも、互いの関係を少しずらすとまったく映らない現象が起きてしまいます。
そして、ピッチが広い像パターンでも受光部にうまく入らなければ像を取り込むことができなくなります。
これが、解像力には開口率が重要になる所以です。インターライントランスファ型CCDでは開口率が低く(10-30%)、それをカバーするため(と感度を上げるために)素子の一つ一つにレンズをつけています。
このような、空間のサンプリングの考え方は、デジタルサンプリングをする世界ではどこの分野でもついて回ります。
例えば、アナログ信号(振動センサからの信号)を考えます。
現象が10KHzで振動していて、これを10KHzのサンプリングでA/D(デジタル)変換する場合、同じ周波数なので現象をまったく拾うことができません。
周期的な現象では、その周波数の10倍のサンプリングが欲しいところです。
ということは、10KHzのサンプリング周波数を持つ計測機器では、1/10以下の、つまり1KHz以下の現象しか正確に取り込むことができないのです。
 
 
Q27. 高速度ビデオでどのくらい速く撮影できるの? (2004.06.16追記)
 
A27.  シリコンのセルで受光した電荷を電位差を利用して、バケツリレーによって光の信号を送るやり方は、10MHz(100ns単位)が限界だろうといわれています。
350,000画素を一つずつ100ns単位で読み出していく方法では、1秒間に約30回同じ番地のセルを読み出す事ができます。
高速ビデオは、この限界の10倍もしくは100倍以上の読み出し速度を要求するのです。
市販の素子を使うことの限界が、これで理解できると思います。
このため、高速度ビデオメーカは、独自に高速読み出しができる撮像素子を開発しています。
Kodakが開発した、複数の取り出し口による映像信号の取り出す方式は、画像の高速読み出しに光明をもたらし、1981年の時点で、分割録画12,000コマ/秒を達成しています(Kodak社 モデルSP2000高速度ビデオ装置)。
この装置は、記録媒体に1/2インチ幅の特殊カセットテープを用いて、テープ走行の限界で使われていました。
極めてクリティカルな設計で製作されたこの装置は、磁気ヘッド、磁気テープの消耗が激しくメンテナンス費用もかかるため、次第にICメモリ方式にその役を譲りました。
1993年には、ICメモリと並列読み出し方式を採用した4,500コマ/秒(分割で40,500コマ/秒)のKodak HS4540(現 Fastcam Ultima40K、2003年製造中止)が開発され、10年にわたって最高撮影記録を保持していました。
2000年になって、CMOSタイプの高速読み出しのできる固体撮像素子が開発され、ICメモリと組み合わせた100,000コマ/秒のビデオ装置(米国Redlake MASD社 HG-100K)が開発されました。
詳細は、歴史背景とトピック」のハイスピ−ドビデオを参照下さい。
 
 
Q28. 3CCDカメラとカラーフィルタ方式CCDカメラの違いは何? (2001.02.26)
 
A28.  カラーカメラのオーソドックスな手法は、RGBの三原色にそれぞれCCD撮像素子を置いて3板CCDカメラでカラー画像を合成する手法です。
これは3CCDカメラと呼ばれるもので、高級カメラの代名詞としてみなさんも理解しておられると思います。
CCD素子を3つ用いて、これをダイクロイックミラーと呼ばれる三色分解光学系にくっつけて作られるものですから価格も当然高いものになります。
 
 
よりシンプルな撮像素子でカラー撮影を可能にしたのが、単板CCD上にマトリクス状のカラーフィルターを張り合わせたものです。
各画素には一つのカラーフィルターが割り当てられていて相互に色情報を補い合ってマトリクスの計算により各画素で色を特定するというものです。
これは、BAYERフォーマットといいます。
このベイヤーフォーマットは、1960年代Kodak研究所にいたBayer博士が考案したフィルタ処理によるRGBカラー画像構築手法です。
1960年代といえばCCD素子もMOSも固体撮像素子のアイデアさえなかった時代ですから、この考えは当然銀塩のカラーフィルムのフィルターとして考え出されました。
しかしカラーフィルムは3層膜を塗布した手法が一般的になってBayer博士のモザイク手法は採用されずお蔵行きとなってしまいました。
それをCCD素子のカラーマトリクス手法に応用したことで着目されるようになりました。
しかしこの手法は、パテント申請してあったので競争各社がむやみに使用ができず、パテントが切れた1990年代に日本のデジタルカメラメーカーがこぞって採用を初めて一般的になりました。
左図にカラーフィルタの原理を示します。
基本的なレイアウトは、素子の左上は赤のフィルタで始まることです。
色情報は、4つの画素に囲まれた真ん中に仮想の画素を設けます。
仮想画素のまわりの4つの実際のフィルタ付き画素は緑(G=Green)の画素2つと赤(R=Red)、青(B=Blue)の画素それぞれ1つで構成されます。
緑の占める割合が多いことがわかります。
これは人間の視感度が緑に対して効率がいいためCCDフィルターも余分に光を与えてバランスを取っているためです。
図の仮想画素Pxに注目してみましょう。
 
Pxのカラー情報は、近傍の画素のカラー情報からマトリクス計算によって得られるのですが、
 
   ・緑(G)は、近傍のG7とG10を足して2で割る。
   ・赤(R)は、R11を優先してその周りの赤色情報も加味する。
   ・青(B)も赤と同様
 
となります。
 
式で表すと以下のようになります。
 
P green = (G7 + G10)/2
P red = (9・R11 + 3・R3 + 3・R9 + R1)/16
P blue = (9・B6 + 3・B8 + 3・B14 + B16)/16
 
この手法が本当に現実の色を再現しているかどうかは議論のあるところですが簡単に彩色できるという画期的な方法ではあります。
 
 
Q29. RGB(原色)フィルタ方式とCMY(補色)フィルタ方式のCCDカメラの違いは何? (2001.04.15)
 
A29.  1つのCCD撮像素子でカラー情報を得る仕組みは、上の「Q28. 3CCDカメラとカラーフィルタ方式CCDカメラの違いは何?」で述べました。
このカラーフィルター方式の単板カラーCCDカメラには、フィルターの種類により大きく分けて2種類あります。
両者とも各画素に応じて画素上にフィルターを配置していくものですが、使用するフィルターによってRGB(原色)フィルターとCYM(補色)フィルターの二種類があります。
現実には、特許の問題とか走査方法などで色々なフィルター配列が使われていますが、特徴を述べるにはこの二つをあげておけば良いかと思います。
補色フィルターの場合、CMYの3種類のフィルターだけが使われるかというとそうでもなく、この3種類のフィルターに混じってG(緑)のフィルターも配置されています
。多くの場合、緑成分は人間の比視感度の関係上明るさの中心となる波長ですので輝度を取るためにCMYフィルターでもGフィルターが組み込まれているものと思われます。
RGBは上でも述べているように、赤と緑と青の光の3原色のフィルターです。
CYMというのは、シアン、イエロー、マゼンタと呼ばれる、RGBの原色のそれぞれ2つを組み合わせた、つまり光工学では補色の関係にあるフィルターです。
この両者の違いは、RGBフィルターが色合いを優先した(発色性の良い)目的に使うのに対して、CYMはたくさんの光を取り入れたいときに使います。
RGBフィルターは全色のうちの1/3しか取り入れることができませんが、CMYは全色の2/3の光を取り入れますから素子に入る光の効率が良くなります。
ただし、補色からRGBの三原色の色成分を計算し直さなければならないので発色はRGBフィルタに比べて劣ります。
この両者は、RGBフィルタ方式はデジタルスティルカメラに使われ、CMYフィルターはビデオカメラに使われています。
 
 
Q29-1 電子シャッタでローリングシャッタとグローバルシャッタがあるけれどその違いは何? (2011.09.24)
 
A29-1.  電子シャッタで、全ての画素に渡って同一時間でシャッタを切るものをグローバルシャッタと言い、画素毎にシャッタの切れるタイミングが異なるものをローリングシャッタと言います。
固体撮像素子に電子シャッタが内蔵されるようになったのは、素子が開発発展していく後半になってからです。CCD撮像素子の初期のものは、電子シャッタがありませんでした。CMOS撮像素子も、電子シャッタのあるものは比較的新しいものになります。
CCDカメラは、比較的早い時期に、全画素同時に電子シャッタの切れるグローバルシャッタ機能ができました。
この電子シャッタは、CCDの持つスミアを除去するために考案されたもので、これが、露光量を調整する働きや、動きの速い現象を静止させるための短時間露光機能としても注目されるようになりました。
CMOSには、CCDの持つスメアが無いために、電子シャッタへの取り組みはスローでした。
CMOSが電子シャッタを採用したのは、CMOS素子の雑音成分を除去するための方法、CDS(Correlated Double Sampling)の開発からです。
ノイズ除去方式が電子シャッタを生み出したのです。
ただし、この機能は、画素毎のノイズ補正が主目的であるため、シャッタをかけるタイミングが画素ごとにバラバラで、一斉に切ることができませんでした。
このバラバラに切れるシャッタのことをロー リングシャッタと呼んでいます。
このシャッタを使って高速現象を撮影すると、対象物が自らの運動のために撮像素子上で移動し、そのために像が歪むという欠点が指摘されています。
その欠点を無くすために、一部のCMOS素子では全画素一斉にシャッタの切れるグローバルシャッタが開発されました。グローバルシャッタの切れるCMOS撮像素子は、高速度カメラに使われています。
 

 高速度カメラ入門 Q&Aトップに戻る


画像処理装置

 

Q31. 画像からどのように計測するの? (2007.07.25追記)
 
A31. 「画像計測事始め」の項目の●映像から測るでも触れています。
さらに「画像処理について」の項目で詳しい解説を試みています。
 
画像からは、物体の変位、角度、速度、及び角速度を求めることができます。
濃度情報から圧力、温度、粒径などを求めることもできます。
画像からどのようにこうした情報を求めるかと言えば、例えば、構造物の破壊過程を高速度カメラでとらえて変形の度合いを画像から計測して応力測定を行うケースがあります。
また、自動車の安全実験では、ステアリングの衝撃吸収、エアバッグの展開スピード、バンパーの吸収度合いの計測を行っています。
液体の微粒化研究では、画像から微粒化した液滴の粒径、度数分布などを求めたり、透過減衰法という手法から分布液滴の平均粒径(ザウタ平均粒径)を求める手法も確立されています。
 
 
 
Q32. 画像ファイルはどのような形式があるの? (2006.01.26追記)
 
A32. コンピュータで画像処理を行うわけですから互換性の高いフォーマットで画像を取り込んでおいた方が便利です。
但し、画像専用機ですと高速で画像処理を行わなくてはならない関係上、一般的な画像ファイルフォーマットで保存していない場合があります。
このような場合には、中間ファイルや最終結果ファイルをTIFFとかBMP、JPEGなどに変換するソフトが用意されています。
これを使えば一般のアプリケーションでも画像を扱うことができます。
以下に一般的な画像ファイルフォーマットとその特徴を示します。

● GIFファイル(Graphics Interchange Fomat):
米国パソコン通信の大手企業Compuserveが1987年に開発したグラフィック用のファイルフォーマットです。
「ジフ」と呼んでいます。
通信利用(インターネット)を考慮しているためファイルのメモリサイズが小さく、どんなマシンでも読み込めるのが特徴です。
GIFは本来は256色までの色数の少ない画像データを圧縮するために作られました。
基本的に、画像データに含まれる色のパターンを見つけだして効率よく圧縮するため写真のようたくさんの色がランダムに現れる画像は苦手です。
可逆圧縮(もとのデータを壊さないような圧縮)のためファイルサイズはJPEGより小さくなりません。
ちなみにJPEGは写真用に作られた圧縮ファイルで非可逆圧縮方式のため、画質を落としてでも画像を圧縮します。
したがって、GIFフォーマットで絵などを効率よく圧縮したければできるだけ色数を少なくします。
一般的なファイル拡張子はgifです。
インターレスGIF、透明GIF、アニメーションGIFがありホームページで最も代表的な画像フォーマットとなっています。
ノーマルGIFフォーマットでは、画像を構成している一番上の行の左から右へ上から下へと1画素ずつファイルに書き込まれます。
そのためダウンロードできた画素から順番に表示されるNetscape Navigatorでは、この順番に表示されます。
これに対しインターレースGIFフォーマットでは、上から下へ行を順番に1行ずつ書き込むのではなく、1行目、9行目Cam17行目といった具合に間引いて書き込みます。
したがって早い時期に粗い画面を見ることができます。
GIFの256色を解決すべくGIF24と呼ばれるフォーマットができ、これはフルカラーのGIF保存が可能です。
GIFフォーマットの圧縮は、「LZW圧縮」方式を採用しています。
LZW圧縮は米国で開発された歴史ある圧縮方式で、辞書を用いた圧縮方式だそうです。
最初の論文を書いた Abraham Lempel氏とJacob Ziv氏の頭文字を取って「LZ」と呼ばれるものがベースとなっていました。
これを、世界初のコンピュータ「ENIAC」を開発したSperry社のエンジニアTerry Welch氏がこのLZ技術をさらに改良して1984年に現在の「LZW圧縮」を完成させました。
この圧縮アルゴリズムはTIFFの他、モデムの圧縮プロトコルであるV.42bisや画像フォーマットのGIF、ドキュメント用のファイルフォーマットPDF、ポストスクリプト・レベル2などで使用されています。
Sperry社はBurroughs社と合併してユニシス社となったため、「LZW圧縮」形式の特許は同社が保有しています(1999.5記)
 
● JPEGファイル(Joint Photographic Experts Group):
GIFと異なり写真圧縮用に開発されたフルカラー画像圧縮フォーマットです。
1600万色まで対応します。
非可逆圧縮で一度圧縮すると元に戻りません。
したがって、任意の圧縮率を選ぶことができます。
一般的な拡張子はjpgあるいはjpeg。
写真などに適したフルカラー画像フォーマットで、Internet Explorerも対応したことでGIFフォーマットに次ぐ画像フォーマットになっています。
JPEG Viewなどのアプリケーションで見ることができます。
 
・非可逆圧縮方式:JPEGでは、ピクセルデータを8x8のブロックに分け、一つ一つのブロックについてDCT(Discrete Cosine Transform = 離散コサイン変換)という手法を用いてデータを符号化します。
この8x8ピクセルのデータの中で、非常に特徴ある情報(このブロックを決定づける変化の少ない、重要な要素)だけを最優先に残し、どうでも良い要素のふるいにかけます。
つまり周波数の高い情報はここで消されてしまいます。
JPEGでは、圧縮の度合いがユーザによって決められるので、圧縮率を高めれば細かい情報がどんどんなくなり、最後は8x8が一つの情報、すなわちモザイクになってしまいます。
DCTによって変換された画像は、可逆圧縮の「ハフマン法」と「ランレングス法」を用いて圧縮します。
周波数の高い情報は、DCTによって消されていますから非常に高い圧縮が可能になります。
 
・ノーマルJPEGとプログレッシブJPEG: GIF同様通信利用を考慮して開発された画像のフォーマットです。
国際電気通信連合とISOが共同で開発しました。
GIFより画質が劣りますがファイルサイズをより小さくできます。
ノーマルとプログレッシブの関係はGIFのインターレースと同じです。
 
サイズの大きくなりがちなグラフィックスデータにあって、高圧縮を実現するJPEGは注目度が非常に高く、デジタルカメラの画像、パソコン通信やインターネットでは主流となっています。
しかしながら、8x8ブロックによるふるいのかけ方からもわかるように、JPEGはあくまで写真のように自然画像に最適化されたように作られていますから、イラストや文字ではシャープなエッジ部を殺してなまらせてしまいます。
また、我々の用に画像から計測しようとするものにとっては、エッジをなまらせるJPEGは、誤差を拡散させるなにものでもなく、計測ができない不具合が生じます。計測用の画像ファイルは、TIFF、BMP、GIFが一般的です。
 
● DICOM規格(Digital Imaging and COmmunications in Medicine):
医用画像(医学で使用されているX線画像、CT画像、NMR画像)を広範囲に使用するために通信のための統合規格。
DICOMはDigital Imaging and COmmunications in Medicineの頭文字で「ダイコム」と発音します。
米国放射線学会(ACR)と北米電子機器工業会(NEMA)が開発した医用画像と通信の標準規格で1993年にDICOM規格が正式に承認されました。
日本では、1991年頃からJIRA(日本放射線機器工業会:医用画像機器業者の団体)が検討を開始し1994年に採用を決定しました。日本のMIPS委員会ではDICOMに日本語が対応できるように規格を更新し、1995年にはlossless(画像圧縮によっても画像の劣化を伴わない)方式も制定されました。
欧州ではCENが中心となって規格化を推進しました。
JIRAは、DICOM規格の実装技術の習得、相互接続試験の実施、および、利用者へのPRを目的として、JMCP95(名古屋、1995年4月)においてMIPS規格-94/DICOMデモを実施しました。JIRAの17社、および、日本医学放射線学会の数グループの参加により、日本でもDICOM規格が確立したことを示しました。
参考HP:伊藤彬 http://www.jfcr.or.jp/DICOM/what_is_dicom.html  (1999.4)
 
 
 
 
【一般的な画像ファイル】
 
★ PICT(Quick Draw Picture Format):
最初のMacintosh から規格化されたQuick Draw(マッキントッシュのグラフィックエンジン)のために開発されたグラフィックフォーマットでPictureに由来しています。
非常に有名なフォーマットです。QuickDrawで記述されますから、画像はビットマップではなくドロー系(ベクターデータ)です。クリップボード、DA(ディスクアクセサリ)のスクラップブックの画像データはこのフォーマットで行っています
『Paint』フォーマットと違い扱える画面像の大きさに制限がありません。
厳密には『PICT』 → モノクロフォーマット
『PICT2』 → カラーフォーマット
で、初期は4ビット(8色)だったのですが、今は24ビット(約670万色)になっています。
表現は豊かですが出力に難があり、トラブルもちょくちょく発生します。
特にPost Script (Quick Draw系)では問題あるため取り扱いに注意が必要です。
 
★ Paint :
白黒のみのビットマップイメージです。解像度72dpi。ページサイズも8 x 10インチに固定されています。
1984年初代Macに採用され、Hypercardで使用されました。Mac Paint に採用されたフォーマットとしても有名です。
 
★ TIFF:
Tagged Image File Format の略です。高密度ビットマップ画像(ラスター形式)で、解像度、モードコントロールが可能です。TIFF画像もモノからフルカラー(約1670万色)に対応がはかられています。
元々はスキャナーの取り込んだデータフォーマットとして1986年に米国Aldus社(DTPソフト『PageMaker』で有名な会社。現在はAdobe社に吸収)が開発し、MS-DOS が採用したことから一般的になりました。
Windowsの世界で有名なBMPフォーマットに比べ、BMPではどこに何を格納するかというファイル全体のレイアウトが予め決められているのに対し、TIFFでははじめから格納場所が決まっているのはファイルの先頭におく8バイト分のデータだけです。
この部分には、TIFFファイルであることを確認するための情報と数値データの扱い方とファイルに格納されている情報の「一覧表」(IFD = Image File Directory)がおかれています。
この一覧表を見て、アプリケーションソフトはファイルの中から必要な情報を引き出します。
TIFFファイルは拡張性が高いので、様々な「方言」(バリエーション)がでてきて互換性がないこともあります。
TIFF 画像データが別の TIFF 対応アプリケーションで開けないケースがあります。
そこでTIFFでは、TIFFを扱うアプリケーションが最低限これだけの機能をサポートしようという取り決め、「ベースライン」を設け、この他の機能は「エクステンション」としてまとめることによって互換性を高めようとしてます。
その「ベースライン」としては、RGBモード、インデックスカラー、グレースケール、2値化白黒画像があります。
画像圧縮としては、ランレングス圧縮の一種である「Pack Bits」とG3ファクシミリで知られたハフマン系の「MH = Modified Huffman 圧縮」ができます。
このほか、エクステンション(予備)として、CMYKモード、YCbCrモード、「LZW圧縮」、「JPEG圧縮」、G3・G4ファクシミリの圧縮方式と互換のある「MH圧縮」、「MR圧縮」への対応が計られています。
また、一つのファイルに複数の画像を格納できるのもTIFFの大きな特徴です。
TIFFは、EPS形式に比べ、プレビュー画像の解像度が低いので再描画が速いという長所があります。
また、カラー TIFF は、DTP(Desk Top Publishing :コンピュータ印刷版下)には基本的には使えず、「Photoshop」などでEPS(Encapsulated Post Script)フォーマットにコンバートする必要があります。
 
★ EPS:
Encapsulated Post Script フォーマット。EPSFとも呼ばれています。
グラフィックソフト「Illustrator」(Adobe社)が扱うファイルフォーマットと言えばわかりが早いでしょうか。
WMF(メタファイル)やマッキントッシュのPICTがOS用言語で描かれたファイルであるのに対しEPSはプリンタ言語(PostScript言語)で描かれているのに特徴があります。
ポストスクリプト言語はアドビ社が開発したプリンタ言語です。
EPSファイルは、レイアウトに貼り込んで使用することを前提にしたフォーマットで、汎用性が高いのが特徴です。
Encapsulated Post Scriptを日本語に直すと「カプセル化したポストスクリプト」ファイルという意味になります。
精度の高い出力が可能で広告版下用に使われます。
Aldus Freehand や Adbe Illustrator などのソフトウェアは直接PostScript(アドビ社が開発した言語) データを操作するのでEPSファイルとして書き出すことができます。
但し、EPSは画像表示できないのでモニタにはPICTもしくはTIFFファイルにして表示させる必要があります。
円を描く場合、キッドピクスなどのペイント系ソフトではギザギザの円になりますが、Aldus Freehand などのPost Script系の円はなめらかになります。
このように、Post Scriptは精度が高い出力が可能となります。
EPSファイルは、ASCII 形式のものと、バイナリ形式の2種類があり、バイナリ形式のものはファイルサイズが半分になります。
カラーデータを4色分解するには、今のところEPSフォーマットでないと4色分解ができません。
 
ポストスクリプト: ポストスクリプト(Postscript)は、PhotoshopやIllustratorと呼ばれる画像レタッチソフトで有名な米国Adobe社が開発したプリンタのためのページ記述言語で、同じようなものに、キャノンの「LIPS」、エプソンの「ESC/Page」、ヒューレットパッカードの「PCL」があります。こうした言語と、ポストスクリプトの違いは、
  ・いち早く開発された。
  ・プリンタに依存せずにテキストやグラフィックが印刷ができた
ことから広く普及しました。
ポストスクリプト自体はベクター、ラスターの両形式とテキスト(フォントの定義を行う所)という、印刷に必要なすべてのデータが標準化され、グレースケールやカラーも扱えるようになっています。
データとして興味深いのは、バイナリコードではなく、すべてテキストで記述されている点です。
プリンタもコンピュータとして見なしていてプリント内容をテキストで送り、プリンタ側で最適なプリント出力を行うという考えです。
この記述は、単なるオペレーションコードではなく、ハードウェアの制御や「if」などのプログラムの制御命令まで用意された完全なプログラム言語です。
 
 
★ ビットマップ(BMP/DIB):
Bit Map File。Windowsの標準画像データ・フォーマットです。
ワープロや表計算、データベースといったさまざまなアプリケーションでサポートされているため世界で一番普及しているデータ形式です。
読んで字の如く画素に階調(色情報)を割り当てたビットマップ(ラスター)形式の画像ファイルです。
ファイルの拡張子は.BMPまたは.DIB、.RLEです。Windows3.0でデバイス独立ビットマップ(DIB:Device Independent Bitmap)という形式に拡張されました。
したがって正しくはDIBファイルと言った方が良いのですが昔からの習わしでBMPファイルと呼ぶことが多いようです。
このフォーマットではRGBモードで1600万色のカラーモードを持ちます。
Windowsの表示・印刷のためのメタ言語(GDI)によって構成されるファイル形式です。
4ビットBMPと8ビットBMPではランレングス圧縮(RLE)が行えます。
この圧縮を行ったBMPファイルの拡張子が.RLEとなります。
ランレングス(Run Length)は連続する同じデータを「個数 + データ」というかたちで表すことにより圧縮する方法のため、同じ色や階調が続くべた塗り画像にはとても効果的です。
 
★ メタファイル(WMF:Windows metafile, EMF:Enhanced metafile):
ベクターデータ(ビットマップとは違うドロー系の描画形式)の画像データファイルです。
Windowsのシステムレベルでサポートするフォーマットです。
システムレベルというのは、グラフィックス描画ルーチン群であるGDI(Graphics Device Interface)の関数と一対一に対応するバイナリ・コードで記述したデータ・フォーマットです。
したがって、WindowsのOSそのものがこの画像ファイルをサポートしているので、ファイルはシフトJISで書かれたテキストで渡せば画像表示をしてくれます。
ファイルの拡張子はWMFです。ビットマップとベクタ・グラフィックスの両方を表現できます。
EMFはWindows95の印刷時に使用されるスプーリングのデータ形式でGDIに対応しています。
 
★ フォトCD(pcd = Photo CD)ファイル:
コダック社のフォトCD規格の読みとり専用のグラフィックフォーマットです。
オランダフィリップス社と米国イーストマンコダック社が共同開発しました。
ネガフィルムやポジフィルムを高解像度のスキャナでスキャンし、「フォトCD」と呼ばれる一回こっきりの記録用CDに書いてくれます。
CD-ROMに納められた画像はフォトCDプレーヤーやRGBフォーマットなので印刷などのDTP出力に使うにはAdobe社の「Photoshop」などでCYMK(4色分解)モードに変換する必要があります。
もっとも一般的なファイルである、「Photo CD Master」は、35mmフィルムを対象としたもので、1枚のCDに約100枚の写真を記録することができます。
解像力によるフォーマットは、「BASE」が基本で、512x768ピクセルの分解能で輝度と2つの色度で表す24ビットカラー「YCCモデル = Photo YCC」で記録されます。
PhotoCDは、この他、
 
1/16BASE   128x192画素
1/4BASE   256x384画素
BASE     512x768画素
4BASE   1024x1536画素
16BASE   2048x3072画素
64BASE   4096x6144画素
 
の取り決めがあります。
Photo CDでは、比較的ファイル容量の小さいBASEまでのファイルは、圧縮せずにそのまま生のかたちでデータを保存しています。
「16BASE」、「64BASE」では、色情報を24ビットのまま保存するのではなく、ビデオ記録で使用されているような輝度、色差信号に分けて色情報成分を半分(YUV4:1:1、色情報だけなら1/4、全体では半分)にして、データ容量を半分にする方式が取られています。
これをサブサンプリングといって、これがおわるとさらにこのデータは2段階の圧縮が行われます。
大きな画像は小さな画像との違い(差分情報)に変換されます。
この差分情報は、さらにハフマン符号化を使って圧縮され、16BASEまではすべて1つのファイルの中に、64BASEの大きなものは別のファイルに格納されます。
 
★ psd(Photoshop)ファイル:
画像処理では定番のAdobe社の「Photoshop」の標準ファイル形式です。
「Photoshop」で作成したレイヤーやアルファチャンネルも同時に保存されます。
Photoshop形式で保存しておく利点は、どのような画像処理にも対応でき、様々なファイル形式に保存できる点です。
ただし、レイヤーやチャンネルが増えると、それだけファイル容量が増えるというデメリットもあります。
 
★ PNG(Portable Network Graphics)ファイル:
インターネットで一般的になったGIF画像フォーマットには、ユニシス社の「LZW圧縮技術」が使われていますが、これには特許料が絡んで1994年以降同社がその特許料の徴収を始めました。
これに伴い、「LZW圧縮技術」を使わない新しいグラフィックスファイルフォーマットの研究が始まりました。
WWWの標準化を行っているグループW3C(World Wide Web Consortium)がGIFに代わるWeb用の画像として次世代の画像ファイル形式として1994年に開発したのがPNGです。
GIFが無償で使えなくなったために作り出されたフォーマットと解釈すれば良いと思います。ピングと呼びます。
PNGが開発された経緯からもわかるように、GIFが実現していたほとんどの機能を踏襲しています。
扱える色は1ビットインデックスカラーから各色16ビットRGBまで幅広く、インターレース表示や高い可逆圧縮に対応しています。
PNGフォーマットには、「デフレ圧縮」(Deflation Compression)と呼ばれる特許の制約を受けない可逆的な圧縮アルゴリズムを使用しています。
「デフレ圧縮」はアーカイバソフト「PKZIP」の作者として知られるPhil Katz氏がデザインしたアルゴリズムです。(1999.5記)
 
★ PDF(Portable Document Format)ファイル:
インターネットで上で最も広く普及しているドキュメント用のファイルフォーマットです。
PDFよりもアドビ社の製品である「Acrobat」(アクロバット)の方がわかりが良いかもしれません。
ポストスクリプトから派生したファイルフォーマットです。
プリンタの性能により性能の良いプリンタを使えばきれいな出力が、安価なプリンタならそれなりのプリントができます。
Wordやイラストレータといったようなソフトでデータを作り、AcrobatでファイルをプリントセーブしてPDFファイルを作ります。
このファイルを見るにはインターネット上で無料で配られているAcrobat Readerというソフトを使って開けることができます。
必要に応じてプリンタできれいなデータを出力することができます。(1999.5記)
 
★ DCSファイル:
Quark社がEPSフォーマットのオプションとして規定したCMYK分版用のファイルフォーマットです。
DCSファイルはCMYKそれぞれのファイルとプレビュー用の5つのファイルから構成されています。
DCSフォーマットの大きなメリットは出力速度が速いことがあげられます。
DCSファイルは、PhotoshopのEPS形式の保存オプションで作成することができます。
 
★ aiファイル:
Adobe社の「Illustrator」用のファイル形式です。DTP用を目的としており、ドロー系のグラフィックファイルです。
描画をビット単位で行わずベジェ曲線を使った関数による記述を使っているためファイルを開いてそれを拡大してもジャギー(ギザギザ)が現れません。
Illustrator自体は Macintosh 育ちのソフトですが、バージョン7.0からはWindows版が発売されました。
これにより Macintosh と完全互換ができるようになりました。
Illustoratorにはビットマップの画像も配置できます。
 
★ cdrファイル:
Windowsのポストスクリプトグラフィックスの定番「Corel Draw」のファイル形式です。
 
★ FlashPix(フラッシュピクス)ファイル:
イーストマンコダック社の主導でヒューレットパッカード社、ライブピクチャ社、マイクロソフト社の協力を得て1996年に策定した新しい画像フォーマットです。
FlashPix自体が物理的なファイルフォーマットを定義しているわけではなく、格納するデータや方法などのルールを定めたアーキテクチャで、基本的にはさまざまな物理フォーマットに応用できるようになっています。
FlashPixの大きな特徴は、画像を64x64ピクセルを1つのブロックとして管理されていて、このブロック単位で表示や印刷などのアクセスが行われます。
従って、高解像力の画像を表示したり印刷する場合に、能力のないコンピュータやプリンタで表示する場合、時間が必要以上にかかるのを防ぐことができます。
画像の表示も最小1/64に表示することができます。
こうしたやり方はPhoto CDと似ていますが、Photo CDが画素数やアスペクト比がBASEというきまりで固定されているのに対し、FlashPixは自由に選ぶことができます。
さらにこの自由な画像サイズをもとにして、さらに各辺をそれぞれ1/2、1/4、1/8と4段階に下げた解像度を持たせて迅速に画像表示や出力できるようになっています。
低いCPU能力を持つコンピュータで画像処理を行うときは画像を間引いて処理を行い、プリントするときに時間をかけて高い解像力でプリント出力することができます。
これを「マルチリゾルーション = MultiResolution」と呼んでいます。
FlashPixのもう一つの大きな特徴は、「タイリング = Tiling」機能です。
先ほどFlashPixは、64x64ピクセル四方のブロック単位で画像を管理処理していると言いましたが、このきまりを利用して、全体の画像から必要な部分だけを取り出す(これが全体を取り出さないので高速に取り出せる)機能があります。
これをタイリングといいます。
従って、画像データは必ずしも最初に全体をロードしておく必要はありません。
最小限のストレスでその都度保管されているメディアからロードしながら、大きな画像データを処理することができます。
このタイリングとマルチリゾルーションの組み合わせはズーミングでも有効に機能します。
 
★ Exif(Exchangeable Image File)ファイル:
CCD、CMOSなどの固体撮像素子を使った電子スティルカメラ(デジタルカメラ)の普及にともなってデジタル画像の統一を図ったファイルです。
日本電子工業振興協会(JEIDA = Japan Electronic Industry Development Association)が1995年10月に策定して1997年10月にver.2.0、そして1998年6月にver.2.1に改訂されました。
デジタルカメラは、別途1998年12月、ISOでDCF(Design rule for Camera File system)という仕様が作られ全てのデジタルカメラメーカーはこれを採用する方向に動いています。
DCFはメディアに保存する際のファイルシステムまでを含んだ包括的な仕様ですが、画像ファイルフォーマット自体はExif 2.1に準拠し、それにいくつか変更を加えたものとなっています。
Exif画像の構造は基本的には通常のJPEG画像形式そのものであり、その中に160x120画素JPEG圧縮サムネィルや撮影情報等のデーターをJPEGの規約に準拠した形で埋め込んだものです。
従ってJPEG形式をサポートしているインターネットブラウザー、画像ビュアー、フォトレタッチソフト等を使えば、Exif画像ファイルは通常のJPEG画像として見ることができます。
Exif画像フィアルでは画像データそのものの他にメタデータ(metadata)と呼ばれる撮影に関する事細かなデータも収録されています。
主なデータ情報は、以下の通りです。
ExposureTime(露出時間、逆数値で表示)
FNumber(撮影時のレンズ絞り)
ExposureProgram(マニュアル撮影、自動、絞り優先などのモード)
ISOSpeedRatings(撮像素子感度をフィルムで使われているISO感度に換算して表示)
ExifVersion(ファイルのバージョン表示、Exif2.1ならば0210と表示)
DateTimeOriginal(撮影日時、カメラに時計が内蔵されていない場合はスペース)
ComponentsConfiguration(画素データ配列表示)
CompressedBitsPerPixel(JPEG圧縮率の表示)
ShutterSpeedValue(露出時間のAPEX換算値)
ApertureVallue(レンズ絞りのAPEX換算値)
BrightnessValue(被写体明るさのAPEX換算値)
ExposureBiasValue(露出補正値)
MaxApertureValue(レンズの最大口径比)
SubjectDistance(撮影距離、メートル表示)
MeteringMode(露出測光モード= 平均測光、中央重点測光、等の表示)
LightSource(使用光源、デーライト、タングステンなどの表示)
Flash(ストロボ使用、Auto設定などの表示)
FocalLength(使用カメラレンズ焦点距離、ミリ表示)
FlashPixVersion(画像ファイルがFlashPixである場合はそのバージョン表示)
ColorSpace(カラースペース), ExifImageWidth(画像サイズ巾)
ExifImageHeight(画像サイズ高)
RelatedSoundFile(画像データに音声を録音した場合音声ファイル名を表示)
FocalPlaneXResolution(撮影した画像画素、部分読み出し撮影などのケースがあり撮像素子画素と必ずしも一致しない)
FocalPlaneYResolution(撮影した画像画素、部分読み出し撮影などのケースがあり撮像素子画素と必ずしも一致しない)
FocalPlaneResolutionUnit(FocalPlaneResolution単位、インチかセンチメートルの単位を表示)
ExposureIndex(ISOSpeedRatingsに同じKodakのみがこのタグを使用)
SensingMethod(センサーチップ表示、ほとんどのカメラが"2"の単板カラーフィルタセンサー)
FileSource(画像ソース、0x03はデジタルスティルカメラ)
SceneType(0x01は直接撮影)
 
★ TARGA(タルガ = TGA)形式:
ビデオキャプチャーカードで有名なトゥルービジョン社が開発したファイルフォーマットで、同社の「Targa」や「Visa」カードを組み込んだシステムで、フルカラーの高品質な画像を捉えるようにするために開発されました。
フルカラーやアルファチャンネルに早くから対応していたフォーマットであるため、後発の製品の多くがこの形式をサポートしています。
一般的なグラフィックソフトではあまり用いられませんが、CG(コンピュータグラフィクス)やビデオ関係では非常によく使われます。
特にCGのビデオ出力ではTARGA形式の連番ファイル
XXX00001.TGA
XXX00002.TGA
というように先頭から順に番号をふったファイル(シーケンスファイル)で処理されています。
 
アルファチャンネル:一般の画像はカラー情報をR.G.B各3チャンネルに8ビットを当てて167万7,216色の24ビットカラーとして表現しますが、24ビットカラーの上に32ビットカラーがあります。
8ビットx4チャンネルでR.G.Bより1チャンネル多く情報があります。
この追加されたチャンネルは、一般にマスキングと呼ばれているもので、256段階の明度を示します。0ならマスク無し、255なら完全なマスクで、その中間はマスクのかかり具合を表します。
このチャンネルのことを一般に「アルファチャンネル」と呼んでいます。
 
 
 
【動画像ファイル】
 
■ Quick Time:
アップル社が1991年に仕様を決めたマルチメディアなフォーマットです。
MacOSのマルチメディア機能を提供するQuickTimeの動画データ・フォーマットで、圧縮アルゴリズムとしてSuperMac Technologyが開発したCinePakを搭載していました。
一般的なファイル拡張子はmovあるいはqtで、ムービー、サウンド等が取り扱え、また比較的簡単にムービーを作ることができインターネットで代表的なフォーマットになっています。
QuickTimeは、ビデオデッキ等の制御、ビデオキャプチャ、データ圧縮、メディアの同期再生などの機能とそれを利用するためのツールボックス(システム)を提供しています。
このデータのファイルを「QuickTimeムービーファイル」といいます。
動画用ファイルフォーマットとしてあまりにも有名になってしまいましたが、実際には、静止画、テキスト、サウンド、MIDIといったさまざまなメディアを扱うことができ、これらのメディアを時間軸を追って制御することができました。
よくAVIと比較されますが、マルチメディア環境を時間軸で同時刻性をを持たせている点ではAVIとは比較外です。
むしろ6年後に開発されたASFと比較した方が正しいと思います。
1993年には、Windows上で再生するための再生エンジンQuickTime for Windowsが発表され、Windows上でも再生可能となりました。
さらに1998年には、Java版の「QuickTime for Java」も発表されました。
QuickTimeムービーファイルでは、RIFF(Resource Interchange File Fomat)のチャンクに相当するものをアトム(atom)といいます。
サイズ情報は、32ビットを符号付き整数として扱うので、管理できるのは最大2Gバイトまでです。
 
■ AVI(Video for Windwos):
Audio Video Interleaved Formatの略です。マイクロソフト社が1992年にPC用に開発したムービーフォーマットです。
AVIは、Windows標準のDIB(Device Independent Bitmap = BMP)の画像の連続したファイルシーケンスの間にWAVEデータ(音声データ)を挟み込んだフォーマットです。
Windws95で利用できるMicrosoft Internet ExplorerではAVIファイルがインラインムービーとして利用されています。
AVIファイルは、WAVE音声データと合体させている関係上RIFF(Resource Interchange File Fomat)という入れ物を利用しています。
このRIFFの入れ物が32ビットの文字の制約を受けるため、ファイルのサイズも32ビット(4,294,967,296 = 4Gバイト)までとなります。
また、データ量にも制限が加えられ、16ビットのAVIで1Gバイトのファイル、32ビットのAVIで2Gバイトの制限となります。
このファイルサイズが十分かどうかは論議されるところです。
多くのマルチメディアデータにおいて、1Gや2Gは十分な容量ですが、ことムービーに関してはこの限りではありません。
ビデオ並のクォリティで扱おうとすると、あっという間に壁に突き当たってしまいます。
最近の高速度カメラでは、カメラに2GBから4GBのメモリを搭載して得られたデータをそのまま画像ファイルとして保存しようという傾向にあります。
しかし、AVIファイルはとても古い規格で、継ぎ足し継ぎ足して存続している規格ですから4GBのような膨大なデータでAVIファイルを作ろうとするといろいろな障害がおきます。
なんと、開発元のマイクロソフトは、1997年(10年も前)にサポートを中止してしまいました。
AVIではどうにも拡張性がないということのようです。
マイクロソフトは、1996年にAVIに変わるフォーマットとしてASF(Advanced Streaming Format)を登場させて普及をはかりますが芳しい結果に終わりませんでした。
そこで、マイクロソフトは、WMV(Windows Media Video File)ファイルを2000年に登場させ、WindowsOSの標準動画ビュアであるMediaPlayerの標準フォーマットにしました。
MediaPlayerでもちろん旧来のAVIファイルを読み込むことはできます。
しかしながら、OSやAVIそのものの規格から外れた2GB以上の容量に対するフォローは、ユーザーの責任において処理しなければならない問題として残っています。
そうは言っても、計測分野での動画処理では2004年現在でもAVIは圧倒的主流です。
多くの計測用動画処理ソフトもAVIファイルには対応しているけれど、MPEGやWMVファイルには対応していないのが実情です。
 
【AVIファイルの圧縮 - 圧縮コーデック】
AVIでは、データの圧縮メカニズムがシステムそのものと関係なく独立しているので圧縮コーデックドライバがインストールされていれば、いろいろなタイプの圧縮技術が可能です。
逆に、適切なドライバがインストールされていないと、圧縮されたデータが読み出せないため映像部が再現されません。
使用している圧縮コーデックに関する情報は、ビデオストリームのストリームヘッダに4文字のIDのかたちで記録され、再生時に指定されたドライバを読み出して映像を再現するようになっています。
AVIは、今や古いタイプのフォーマットで、コンテナという異名を持つほど、つまり、単なる箱というほどになってしまいました。
その箱にいろいろなコーデック(Codec)を仕掛けてAVIファイルとしています。
ですからひとくちにAVIと言ってもどのコーデックで格納したかをしっかりと把握しておく必要があります。
 
■ DV-AVI(Digial Video AVI):
デジタルビデオ規格のデータをそのままAVIという入れ物に入れたフォーマットです。
先に述べたAVIがまさに箱になってしまったという典型的な例です。
AVIという箱に入れればいろいろな動画ソフトで再生できるので便利であるという観点から作られ、デジタルビデオカメラで普及しました。
Windows Media Playerで再生でき、Adobe Premiereなどの動画編集ソフトで編集できます。
しかしながら、このファイルの根本はDV規格であり、DVはMotion JPEGを基本としているので計測用の動画像処理ソフトでは対応していないことが多いのです。
 
■ DV(Digital Video):
DV(デジタル・ビデオ、ディーヴィ)Digital Videoの略です。
1995年に決められた民生初のデジタルビデオ規格で、従来のビデオカメラとは違い、テープに映像をデジタルデータとして記録するするため、編集や複製に伴う画質の劣化がありません。
この規格ができる伏線には、テレビ放送のデジタル化とパソコンの普及があげられます。
テレビ放送がVTRの普及によりアナログビデオ信号によるビデオ機器が家庭内に広く行き渡るようになりました。
アナログビデオ信号については、NTSC(Q23.NTSCって何?)を参考にしてください。
このアナログのテレビ(ビデオ)信号をデジタル化したものがDVフォーマットであると言うことができます。
デジタル化したことによりコピーによる画像の劣化がなくなりました。
それまで普及していた8mmビデオテープレコーダも、デジタルに替わっていくようになりました。
画面サイズは720×480ピクセル、フレームレートは30fps、圧縮率は約1/5となっています。
画面サイズは、NTSC信号をデジタルにするために必要かつ十分な画素としています。
30コマ/秒もビデオ信号の規格をそのまま踏襲しました。
画像は、Motion-JPEGによるフレーム内圧縮でMPEGとは違い一枚一枚の静止画を保存しています。
音声は、サンプリング周波数48kHz、量子化ビット数16bitのリニアPCM2chか、32kHz、12bitのノンリニアPCM4ch。録画時間は標準カセットで270分、ミニカセット(Mini DV)で60分、80分。
DVには、上に述べた一般用のもの(SD)と、ハイビジョン用(HD)用のフォーマットHDV規格があります。
 
■ Motion JPEG: (2001.01.22追記)
静止画像フォーマットであるJPEGを、高速で伸張処理し、連続して再生することで動画に見せかける方式です。
専用のハードウェアを用意するとデータ圧縮を行いながらのリアルタイム動画取り込みが可能なため、パーソナル向けのビデオキャプチャ・カードなどが圧縮/伸張方式として採用しています。
MPEGデータなどと異なり「1コマ1コマ」が静止画像として存在するため、任意の箇所で編集が容易です。
圧縮率は1/5から1/20程度まで圧縮をかけることができ圧縮をかけすぎると粗い画像となります。
開発当時この圧縮画像を使って画像計測を行う際に、圧縮されたデータが誤動作を起こして正確な位置情報が得られませんでした。
Motion JPEGとMPEGはフォーマットが違います。
画像計測用にはMPEGは不向きです。
MPEGフォーマットでは画像を静止させても正しい画像になりません。
JPEG画像でも圧縮の度合いによっては計測は苦しくて、読み取り値が正確ではなくなるという研究者のご意見も多くあります。
画像計測にはあまりおすすめできません。
 
■ MPEG(Motion Picture Expert Group):
1988年に設立されたグループが開発した動画の符号化技術の研究から生まれました。
一般的な拡張子はmpgあるいはmpegです。
Quick Timeと異なりISO標準化機構が仕様を決めています。
MPEG-1は転送速度が1.5Mビット/秒でCD-ROMなどの蓄積メディアを適用対象としたもので、Video-CDなどに使われます。MPEG-2は転送速度が数M〜数十Mビット/秒で次世代テレビ放送やDVDで使用されます。
MPEGファイルはSparkleなどのアプリケーションで見ることができます。
MPEGムービーを作るには専用のハードウェアが必要です。
ムービーとしての位置づけが強く画像計測の観点からはおすすめできません。
MPEGにはMPEG1の他に次のようなものがあります。
 
・ MPEG2: HDTV(ハイビジョンテレビ)までカバーするデジタルビデオ用規格。
       MPEG1に課したビットレートの制限を外した。
       当初、HDTVをターゲットとしたものをMPEG3として別に扱っていましたが、MPEG2に統合され、
       1994年に規格化されました。DVDに採用されているのもこのMPEG2です。
・ MPEG-4:1999年の国際標準化を目標にQuickTime、ASFなどのマルチメディアの統合が計られている規格です。
・ MPEG-7:マルチメディア・コンテンツに関するさまざまな情報の記述方法を標準化し、検索したり、
      ファイリングを可能にする規格です。
      1996年にスタートし2000年を目標に規格化作業が進められています。
 
■ ASF(Advanced Streaming Format):
マイクロソフト社が1996年に発表したデジタルビデオの新しいプラットフォーム「Active Movie」を使ったマルチメディア用ファイルフォーマットがASFです。
DirectShowは、「DirectX」と呼ばれるマルチメディア・アーキテクチャの最上級に位置するコンポーネントのひとつで、従来のVideo for Windowsに代わって、オーディオやビデオ系の新しいサービスを提供します。
DirectXは、1995年にマイクロソフト社で作られゲームの開発環境を柔軟に対処することを目的としたマルチメディアインタフェースで、グラフィックスやムービーなどマルチメディア技術の総称になりました。
この環境下で、DirectDraw(2Dグラフィックス)、Direct3D(2Dグラフィックス)、DirectSound(オーディオ)、DirectSound3D(3Dオーディオ)、DirectInput(ジョイスティックなどの入力デバイス)、DirectShow(オーディオやビデオの録再生)、DirectAnimation(アニメーションの再生)、DirectModel(3Dグラフィックスを扱うためのツールキット)、DirectPlay(オンラインゲーム用のツールキット)などを提供しています。
 
■ WMV(Windows Media Video File):
マイクロソフト社が、AVIファイル及びASFファイルに代わる規格として2000年に発表したデジタルビデオの新しいプラットフォームです。
AVIファイルの後継ファイルとして登場し、高い圧縮率と大容量化がはかられています。
WMVファイルはインターネット上で徐々に浸透しつつあります。
Windows Media Player で標準の動画ファイルとして大々的に採用しています。
AVIファイルが1997年にサポートを中止され、幾多の変遷を経てこのフォーマットに落ち着きました。
しかし、我々計測分野では依然としてAVIファイルの利用が多いのが実情です。
WMVファイルは、計測用の動画処理ソフトウェアでは認識しないようです。
 
 
【3Dグラフィックス】
グラフィックスには、モザイク状に画素として扱うビットマップ(ラスターデータ)と、始点と終点、その間の線の性質を表すドロー(ベクターグラフィックス)という二つの画像がありますが、もう一つ立体画像を扱う「3Dグラフィックス」というジャンルがあります。
 
◆ VRML(Virtual Reality Modeling Language)
VRMLの草案は、1994年11月に第1版が作られ、翌5月には「VRML1.0」としてまとめられました。
この規格はインターネットの普及とともに大いに注目を集めいろいろなソフト開発メーカがVRMLのサポートをはじめました。
マイクロソフトの「インターネットイクスプローラ」もネットスケープ社の「Netscape Navigator」も1995年秋から翌年春にかけてそれぞれのブラウザ用にVRMLモジュールをリリースしました。
 
 
Q32-a. AVI(エイ・ブイ・アイ)ファイルって何? (2004.12.14記)(2014.07.)(2024.01.20追記)
 
A32-a. 1992年、マイクロソフト社が最初にデジタル動画ファイルとして作ったのがAVIファイルです。
30年以上も前の規格です。
当時のコンピュータのOSは、MS-DOSの時代でした。
AVI規格の基本は、彼らが作っていた静止画のBMPファイル(ビットマップファイル)に音声ファイルを織り込んで動画付けしただけのもので、極めてシンプルなものでした。
AVIは、Audio Video Interleaved Format の略です。
パソコンがマルチメディア時代の主役になるのを見込んで、マイクロソフト社が取り組んだ動画ファイルでした。
AVIは、Windowsに標準で装備されていたため大いに普及し、科学分野では動画ファイルの入れ物として2014年現在でもよく使われています。
古い規格なので大容量のファイルが読み出せないなどの問題があり、しかも1997年にマイクロソフト社自体がAVIファイルのサポートを中止してしまったために、その後は一人歩きの感があります。
また、AVIは以下に示す圧縮(コーデック)を使っで使うことが普通ですが、コーデックの開発を20000年代に入って中止してしまったので、64bitマシンにはほとんど対応していない問題が浮上しています。
従って、Windows7の64ビットマシンではコーデックを使ったほとんどのAVIが扱えないという問題が出ています。
ユーザは、64ビットマシンをx86の32ビット環境で、かつコーデックドライバーをインストールして使っています。
 
 
 
Q32-b. codec(コーデック)って何? (2004.12.14記)
 
A32-b. AVIファイルが静止画像BMPファイルから発展したことは上で述べた通りです。
BMP画像は、ビットマップと呼ばれる表示手法で、画面を画素に分割して1画素に濃度を割り付けたものです。
AVIファイルは、「入れ子」のようなもので、ファイル形式にいろいろなモジュールを格納できるようになっています。
そのモジュールに圧縮の方式を入れ込むとファイル容量の軽いAVIファイルができます。
圧縮の方式を盛り込むことをコーデックと言います。
codecは、Coder/DECorder(符号化/複合化)、もしくは、COmpression/DECompression(圧縮/解凍)の略です。
コーデックの主なものは、Cinepak(シネパック)、Indeo Video(インディオビデオ)、MS-Videoが一般的なところです。
2000年に入ってMPEG方式を使ったコーデックも出て来ました。
これらの圧縮を使っていれば、パソコン相互でファイルを読み出すことができないという不具合はないと考えます。
Cinepakは、コーデックの中では比較的早く開発されたものでラディウス社がQuickTimeに採用したことから始まります。
圧縮をあげてもそれほどファイルサイズが小さくならず画質が変わらない反面圧縮に時間がかかるという欠点があります。
Indeo Videは、インテル社が開発したコーデックで、圧縮を上げるとファイルサイズがかなり小さくなり、画質も劣化します。
圧縮に要する時間もシネパックの半分程度となります
MS-Videoは、マイクロソフト社が開発したコーデックで、圧縮による画質の低下は免れませんがそこそこ速い処理時間でコーデックできるようです。
圧縮は一番低くしても元の画像より1/10〜1/20程度になるので重宝しますが、計測を主体としている我々の世界ではできうる限り圧縮をしないで保存するようにしています。
圧縮によって失う情報があると困るからです。
 
 
Q32-c. MPEG(エムペグ)ファイルって何? 何故計測用には使われないの? (2004.12.14記)(2006.02.04追記)
 
A32-c. MPEGファイルは、映画などの長時間再生を画質を損なうこと無くファイル容量をできるだけ小さくして保存することを目的に開発されたもので、計測としての画像管理の立場には立っていません。
つまり、1秒間に30枚で画像を再生させてできるだけきれいに見せることを主目的としています。
画像計測では、画像を任意の速度で送ったり逆転させたり、必要に応じて1コマを静止させ、その画像から興味ある点の位置(座標)を求め、変位量まで求めようとします。
MPEG画像は、そのような使われ方を想定して作られていません。
あくまでも一定の再生速度で見るためのものです。
MPEGフォーマットが企画される時に主眼がおかれたのは、4.7GBの容量を持つDVDに映画の内容(720x480画素、RGB、120分)を最大漏らさず記録することでした。
通常、これらの画像をBMP(ビットマップ)で保存するとすると、
 
720 画素 x480 画素 x 1 バイト/画素・画素 x 3 RGB/バイト x 30 枚/秒 x 60 秒/分 x 120 分/秒 = 224 G
 
となり224GBもの容量が必要となります。
これをDVDに保存するとなると、1/47.6の圧縮を行わなければなりません。
この数値は、相当の画質の劣化を覚悟しなければならないことを意味しています。
そこで、MPEGは、静止画の平面情報を圧縮するという方法ではなくて、時間方向の圧縮をかけるという方法をとりました。
つまり、時間毎の変化分だけを記録して情報量を稼ごうというわけです。
ちょうどアニメを作る時、背景画像と人物画像を別々のセルで描いて、さらに動きのある、口や目、眉、手足も別のセルに描いて重ね合わせて撮影するようなものです。
アニメを作る側は、目や口などの動きのある所だけを描けば良いので製作が極めて楽になります。
この圧縮方法が、実は、画像計測にとって重大な欠陥となるのです。
画像計測の分野では、動画像を早送りで送ったり、静止させたり逆転させたりと目まぐるしく画像を操作します。
MPEG画像は、このような操作に対してはおそろしく遅い動作になります。
すべてのフレームに対して静止画像としての情報を持っていないので、静止画を作るのに時間がかかるためです。
しかし、2005年あたりから、MPEGフォーマットの画質対圧縮性の良さが見直され、計測用としても使おうという気運が高まっています。
MPEGが扱える高速度カメラはまだほとんどありませんが、計測用ソフトウエアでは少しながら出てきています。
2011年の時点では、まだ主流となっていません。
しかし、MPEG手法を取り入れたAVIは計測分野でさかんに使われていて、IndeoやWMV(Widnows Media Vdeo)のVCM9は、MPEG手法のコーデックです。
 
 
Q32-d. 画像計測で一番良い画像ファイルフォーマットは何?  (2004.12.14記)(2006.02.04追記)
 
A32-d. 現在の所、もっとも一般的に使われている画像フォーマットは、静止画でTIFF、JPEG、動画像でAVIフォーマットです。
TIFFファイルが使われている理由は、
 
* 画像フォーマットの拡張性が高く、
* 8ビット以上の濃度情報保存ができることや、
* JPEG圧縮フォーマットでの保存ができること、
* 画像データがヘッダ部に自由に書き込める
 
などです。計測用として重宝な機能が盛り込まれているのです。
JPEGは、写真の圧縮から出発したのでデジカメで非常によく使われています。
そのうえ、画像を一枚一枚独立して保存できるので、画像計測としても受け入れやすいものでした。
JPEGができた当時は圧縮によって細かい大事な情報が消えてしまう心配がされましたが、そこそこ使えているようです。
もっとも、JPEGは不可逆圧縮ですから、細かい画像の解析をするのであるならばこのフォーマットは得策ではありません。
 
計測目的には、TIFFかBMPが無難です。
計測用に使われる動画像は、AVIフォーマットが一般的です。
古い規格であるため、2GB以上のファイル容量を保証せず再生できないという欠点を持つものの、考えがとてもシンプルで、簡単に作れ、時間が切迫している撮影現場ではありがたいフォーマットです。
AVIではCODEC(コーデック)を選ぶことにより様々な圧縮を行うことができます。
これが、現在も廃れずに使われている理由です。
 
 
Q32-e. ビデオカメラではDV(Digital Video)フォーマットが主流なのに、なぜ高速度カメラは使われていないの?  (2006.02.04記)(2009.05.21追記)
 
A32-e. コマーシャル業界の人たちと仕事をするようになってびっくりしたことは、彼らの収録はすべてDV(Digital Video)で行っていることでした。
DVとは、最近の家庭用デジタルビデオカメラが採用しているフォーマットです。
8mmビデオカメラに代わって急速に普及してきました。
アマチュア向けにはminiDVと呼ばれる小さなカセットテープを使って録画します。
放送用には画質のより良いD2規格(もしくはD5規格)のVTRで録画しています。
DVの歴史的な経緯は、NTSC規格がベースにあって、これをデジタル化したものがDV規格となったと言えます。
NTSC規格については、Q23. NTSCって何? で述べています。
NTSCは、テレビが発明されてから主流になって来た送信・受信規格です。
その規格をデジタル化にしたのがこの規格だったのです。
 
したがって、この規格は、AVIのような動画フォーマットとは開発の歴史的背景が異なっています。
 
DVフォーマットは、1995年にビデオ機器関連55社による「HDデジタルVCR協議会」が作り上げたデジタルビデオ規格です。
DVフォーマットのおおまかな規格は、
 
1画面が720x480画素(もちろんインターフレーム)で構成されていて、
1秒間に30コマ(正確には29.97コマ)で作られている
 
ことです。この数値を見てもわかるようにNTSC規格と似ていることがわかります。
似ているというよりも同じにしないとまずいのです。
なぜなら、各家庭には古いテレビがあるのでこうしたテレビでも画像が見えるようにしなければならないからです。
放送関係の人たちは、デジタルビデオテープを主な素材記録媒体として使っています。テープは、1/4インチ巾(6.35mm)のME(メタル蒸着)です。このテープは優れもので、60分から80分のデジタル録画ができます。DVDでも120分の録画ができるではないかと思うのですが、DVDでは、MPEGと言って別の考え方から動画ファイルを作るために、巧妙な圧縮技術を使っています。
ですから4.7GBの容量でも2時間の画像が保存できるのです。
また、DVDでは多少時間がかかってもゆっくりと焼きつけられるのに対し、ビデオ録画では1秒間に30コマで連続して録画して行かなければなりません。
待った無しの長時間録画が要求されます。
これがDVとMPEGフォーマットDVD録画の違いです。
DVテープは、長時間録画ができ、しかも比較的高速(30コマ/秒)で取り込めます。
取り込んだ後は、IEEE1394(Fire Wire)でデジタルでパソコンに送ることができます。
パソコンに取り込んだ画像はノンリニア編集ソフトを使って自由に画像を切り貼りして音声を入れて作品を作ることができます。
ノンリニア編集とは、フィルムとかビデオ編集のように素材を最初から順番(リニア)に編集していく必要がなく、任意の場所で切り貼り(リニアでないということでノンリニア)できるという意味です。
DV規格は、テープ録画が基本です。先にも述べた1/4インチメタル蒸着テープを使って、100円玉口径ほどの小さな磁気ドラムで映像と音声をデジタル録画していきます。
 
画像はJPEG方式の圧縮によって1/5に抑え、25Mbps(ビット/秒)の録画ができます。
 
MPEG録画ではありません。
一枚一枚静止画を作って録画しています。
miniDVカセットは、これで60分の録画ができるので、
 
25Mbps x 60 seconds x 60 min. x1/8 bite/bit = 11.25 GB
 
の容量を持つことになります。
DV規格は1秒間に25Mビットの情報が記録できるのがミソなのです。
 
高速度カメラは、たとえば1280x1024画素を1秒間に500コマ撮影したとすると、
 
1280 x 1024 bite/frame x 8 bit/bite x 500 frame/sec = 5.243G bit/s
←(色情報は後処理で作るため保存は1画素8ビットで計算してよい)
 
となり、25Mbpsの210倍ものスピードを持つテープレコーダでないと高速度カメラの画像は録画できないことになります。
このことから、高速度カメラではデータの読み取りが一番早いSDRAM(パソコンのダイナミックRAM)を使って、そして撮像素子に複数のデータ取り出し口を設けて、とにかく画像をRAM メモリに取り込んで、あとでゆっくり再生して必要に応じて画像フォーマットに再保存する、というやり方を取っています。
したがって、高速度カメラにはDV規格の入る余地がないのです。
 
 
 
Q33. ちなみにコンピュータファイルはどのような形式があるの?
  画像ファイルと直接関係ありませんが参考までに。(1999.5.24)
 
A33. コンピュータに使われているフォーマットの紹介をします。元気の良いソフトウェアを持つファイルフォーマットが時代を制するようです。
 
【文書ファイル】
 
▲ txtファイル:
文字と改行コード、タブコードなどのシフトJISコードから構成されるシンプルで標準的なファイル形式。
どのワープロソフトもテキスト形式の保存フォーマットを持っているのでレイアウトされない文書のやりとりにはこの形式のフォーマットが便利。
よけいな機能がないのでテキスト入力だけには最適。
Windowsでは、「メモ帳」、「秀丸エディタ」、「Akira32」等があり、 Macintosh では、「Simple Text」、「Teach Text」、「Jedit」などがあります。 
 
▲ RTFファイル:
リッチテキストフォーマット(Rich Text Format)は、マイクロソフト社が開発した「書式付きテキスト形式」と呼ばれるファイルです。
Wordや、WordPadに対応しています。
このフォーマットは、罫線や書式情報(フォントの大きさや文字飾り、段落の設定など)を含めて保存することができます。
Wordのリッチテキストファイルを一太郎で開いた場合など、書式や画像の位置が全く同じにはなりません。 
 
▲ docファイル:
MIcrosoft95あるいはWord97/98、Windows95に付属する「ワードパッド」で作成したファイル形式。
同じ.docファイルでもMIcrosoft95とWord97/98で作成した文書には完全互換がありません。 
 
▲ j*w、jtdファイル:
ジャストシステムが提供する「一太郎」の文書ファイルフォーマットです。「一太郎8」は.jtd、「一太郎7」は.j*wの拡張子を持ちます。 
 
▲ lwpファイル:
ロータス社のワープロソフトWordProのファイル形式です。 
 
▲ wpsファイル:
MIcrosoft社の総合ソフト「Works」のワープロ機能で作成したファイル形式です。 
 
▲ cwjファイル:
クラリス社の総合ソフト「クラリスワークス」のワープロ機能で作成したファイル形式です。
 
▲ htm、htmlファイル:
インターネットのWebブラウザに表示するためのHTML(Hyper Text Markup Language)という簡易言語で書かれた形式です。
Internet ExplorerやNetscape Navigatorで開くときれいな画像や罫線などが表示されます。
HTML文書は基本的には、テキストファイルですが、拡張子をhtmあるいはhtmlとすることで、ブラウザが起動し、HTML文書が表示
 
 
 
【表計算ファイル】
画像ファイルと直接関係ありませんが参考までに。画像ファイルを表計算ソフトに移植して画像をデータとして扱うことも一部の利用者で行われていいます。
 
 txtファイル:
表計算ソフトは、縦の列と横の行から構成されています。
列の区切りをタブコードで行い行の区切りを改行コードで入力したテキストファイルです。
ワープロのテキストファイルと同様、書式の情報は持ちません。
また、ExcelやLotus1-2-3で作成したファイルをこの形式で保存すると、書式情報だけでなく、セルに設定した計算式や関数の情報も失われます。
 
 prn(スペース区切り)ファイル:
半角スペースで区切られた固定長のテキストデータです。
数値の桁数によりスペースの数が異なってきます。
パソコン通信のログのような固定長のデータの場合、.prnの拡張子を付けてファイルにしExcelやLotus1-2-3で読み込んでみると、しっかり項目ごとにセルに分けて入ります。
 
 CSV(Comma Separated Value Format)ファイル:
セル間が半角のカンマで区切られた形式のテキストファイルです。
カンマがデータの区切りですから数字の中にカンマを使うことは許されません。
どうしても使いたい場合、アプリケーションソフトによっては、二重引用符(")で囲むことを認めているので、
 "1998/12/25","クリスマスプレセント" ,"¥35,000"
として、最後の数字のカンマを有効に利用することができます。
 
 SYLKファイル:
SYLK(Symbolic Link Format)形式は、セル内の計算式や関数、文字書式、数値の表示形式なども含めて保存できる形式です。
元来このフォーマットはマイクロソフト社が発売した表計算ソフト「Multiplan(マルチプラン)」やオリジナルの「Excel」(マッキントッシュ版)の保存ファイル形式でした。
現在、ほとんどの表計算ソフトがこの保存形式によっています。
 
 xlsファイル:
Excel95/97のファイル形式です。これ以前のバージョンは拡張子が異なります。
Excel4.0ブック形式: .xlw
Excel3.1/2.1ワークシート: .xjs
 
 1-2-3、wk*ファイル:
MS-DOSの時代から標準的な表計算ソフトとして受け入れられてきたLotus1-2-3のファイル形式です。
 
 mdbファイル:
Microsoft社のリレーショナルデータベースソフト「Accessの」ファイル形式です。
AccessではExcelのデータとリンクし、Excelファイルでの編集をAccessに反映させることができます。
Accessでは、オブジェクトをExcel5〜7、97、リッチテキスト形式としてデータをエクスポートする事ができます 
 
 fmjファイル:
クラリス社のデータベースソフト「ファイルメーカPro」のファイル形式です。
これは、 Macintosh 版とファイルの完全互換があります。
「ファイルメーカPro」は、テキスト形式、SYLK、DBF、HTML形式でエクスポートする事ができます。
また、Excelファイル自体を開くことができます。 
 
 aprファイル:
ロータス社のデータベースソフト「アプローチ」のファイル形式です。
 
 DIF(Data Interchange Format)ファイル:
パソコンが作られた初期、ビジカルクと呼ばれる表計算ソフトに使用されていたフォーマットです。
ビジカルクは、もうこの世に存在しませんがファイル形式だけ生き残っています。ロータス社のデータベースソフト「アプローチ」のファイル形式です。
ファイルの内容は、最初に「ヘッダセクション」、次に「データセクション」というように二つのセクションから構成されます。
 
 
 
 
Q34. 具体的な画像計測システムにどんなものがあるの? (2006.02.04)(2012.02.02記)
 
A34. 画像計測システムは、コンピュータに取り込まれた画像ファイルを画像処理ソフトを用いて目的のデータを構築するシステムです。以下に代表的なものを示します。
 
■ 自動読み取り装置の先駆 ImageExpress  (1998.4.17)(2012.02.01記)

ターゲット自働読み取り装置Image Express(1998)

上部より、カラーモニタ、 キーボード及びマウス、 WindowNTコンピュータ VCR

1990年代に開発された米国SAI社の画像内のターゲット自動読み取り装置を紹介します。
右の写真の装置がターゲットマークを自動的に読み込んで解析処理してくれるImage Expressです。
1990年代前半に開発されました。
2006年に販売を中止しています。
開発当初は、WindowsNTの環境でした。
 
この装置の基本は、予め計測する動画像を装置内のコンピュータに取り込んで行われました。
オンラインでの処理はできません。
この装置には、専用のVTRが備え付けられていて、高速度ビデオで得られた画像データをVTRを介して秒30枚のペースで高速にコンピュータに取り込みました。
(当時は、ビデオテープのアナログ画像しか十分な保存環境がなかったのです。)
10秒で300枚の画像を取り込むことができました。
勿論、TIFFファイルの画像もMOなどのメディアから取り込むことが可能で、ネットワークを通じてサーバーや高速度カメラから直接画像データを取り込むことも可能でした。
ターゲットマークの形状は、認識しやすいようにできるだけコントラストのある白丸や黒丸、市松模様の丸などが使われます。
これらのターゲットを最初の画面についてのみ操作者がマウスで指定していきます。
ターゲットは、1画面で10ポイント、多いときで20ポイント程度指定します。
初期設定が終わり「自働読み取り実行」ボタンを押せば、コンピュータは次フレームから指定した枚数まで次々とターゲットを読んでいってくれます。
この装置の面白いところは、ターゲット形状を判断し、ターゲットマークの重心を1ピクセルの1/10まで計算して中心を割り出してくれることです。
その他、ターゲットマークを追いかけていく場合にもターゲットマークの動きを予測し、予測したエリアでサーチを行うというアルゴリズムが組み込まれており、効率の良い読み込みを行います。
読み込まれたデータは、グラフやスティックピクチャで表示され、計測画像と解析結果を同一画面で表示することができます。
 
Image Expressを用いた解析結果(1996年当時の画像)。
左-1画像:レーシングカーのサスペンション挙動、ターゲットマーカは黄と黒の十文字マーカ。
左-2画像:サスペンションロアアームのターゲットは白丸。時間と変位の測定結果。
右-1画像:サスペンション挙動のスティックピクチャ。測定グラフと画像は簡単に特定できる。
右-2画像:マルチ画像で必要な画像、スティックピクチャ、グラフを任意に表示させ、画像を再生させながら結果を確認できる。
 
 
■ 現在のターゲット自動読み取り装置 ViewPoint (2012.02.02記)
ViewPointは、Image Expressの後継機種として2007年に発売されました。
先に述べたImageExpressがハードウェアから構築していたのに対し、ViewPointはソフトウェアだけです。
通常のPC(Windows XP/Vista/7/8)にソフトウェアをインストールして使用します。
操作環境や性能は、Image Expressを踏襲し、Image Expressで解析したデータを読み込むことができます。
予め保存された動画ファイルを読み出してターゲットの自動追跡と解析を行います。
解析できる動画ファイルフォーマットは、AVI、TIFF、JPEG、BMPです。
ViewPointの操作画面 (2012.02)
左:解析動画ファイル、右:ターゲット追跡結果プロット図
中央小窓: ターゲット追跡確認拡大ウィンドウ
(この動画ファイルを見るにはここをクリックして下さい。)
 
上の動画がViewPointで解析したターゲットマーク自動読み取り結果の再生画像です。
 
 
Q341. ターゲットマークって?(2014.07.16記)
 
A341. コンピュータが、特徴的な形状を認識してその特徴を動画フレーム間にわたり自動的に追いかけるためのマーカーです。
最も良く使われるマーカーは以下に示すような形状のものです。
 
 
Q342. ターゲットを読み取るってどういうこと?(2014.07.16記)
 
A342. コンピュータが、特徴的な形状を認識してその特徴を動画フレーム間にわたり自動的に追いかけるためのマーカーです。
最も良く使われるマーカーは以下に示すような形状のものです。
 
 
Q35. 画像計測は自働、手動? (1998.4.17)
 
A35. ターゲットマークを人手を介さずコンピュータ自ら自動で読みとることは長い間の夢でした。   
この試みは1970年代から始められいくつかの製品が開発されてきました。
しかしながらどの製品もターゲットマークを快適に読むことは難しく、限られた条件下での使用を余儀なくされていました。
人間は、単調な仕事は効率が悪い反面、ものを認識し識別する能力には長けていますが、機械は複雑な動きをする運動やターゲットマークが隠れたりかけたりした場合の自働読み取りはまだ苦手なようです。
それでも、コンピュータの性能が上がり、自動解析のアルゴリズムも洗練されてきたため快適な自動解析装置になりつつあります。
自動車安全実験では毎日安全実験を繰り返しそのたび毎に高速度カメラから得られる多量のデータを抽出しなければなりません。
従来はこれを人間の手で1ポイントづつデジタイズしていました。
この装置の開発で計測処理効率が随分向上しました。
 
                              
 
 
Q36. 総合データ計測の構築はどうやって行うの?  (1998.4.17)
 
A36. 宇宙開発分野や自動車安全実験分野では高速度カメラを計測装置の一つと位置づけて、システムの構築を熱心に行ってきました。
これらの実験に使用するデータには、
 
・ひずみゲージなどの応力データ
・Gセンサー(加速度センサー)、振動センサー
・圧力、温度センサー
・時間情報(同一クロック、宇宙開発ではIRIGフォーマット)
 
などがあります。
これらのデータは、光ファイバー、テレメータ、などを介してコンピュータやデータレコーダに収録されます。
これらに加え、画像データを付き合わせたい場合に時間軸を共通にしてデータサーバ上でデータを共通化する必要があります。
 
 
 
 高速度カメラ入門 Q&Aトップに戻る   


 

3次元計測装置

 

Q41. 3次元計測ってどうやって行うの?
 
A41. 画像は、基本的には2次元情報です。
この2次元情報から3次元情報を得るためには、図面の3角法と同じように2方向から映像を取り込みXYZ情報を構築します。
一番簡単な方法は、被写体に鏡を置いて一つのカメラで2方向の画像を取り込み3次元情報を得ます。
1台のカメラですと制約が大きいので、高速度カメラを2台用いてXY、YZ平面を構築し同一倍率で被写体を撮影して3次元情報を構築します。
2台のカメラだけですとターゲットが隠れてしまうことがあるため、5〜7台のカメラで被写体をとらえ隠れたターゲットを別のカメラで補間する方法が採られています。
カメラは、いったん固定したら動かすことはできません。
カメラを固定して、座標の良くわかったターゲットを撮影してカメラの位置と座標系を特定します。
英国Oxford Metrics社(Oxford大学 モーリス博士が1984年に創設)が開発したVICONと呼ばれるシステムは、映像ではなく、被写体に反射マーカを取り付け、画像を二値化処理してマーカの輝度だけを検出します。
こうして読み取りを自動にして3次元座標構築、スティックピクチャ処理(人体の間接を線で結んで骨格処理を行う手法)を迅速に行うことができます。
 
 
Q42. 3次元計測はいままでにどんなところに使われてきたの?
 
A42. 3次元計測を本格的に行ったのは、ロケットの弾道、弾丸の弾道の軍事用でした。
弾丸はまっすぐに飛ぶとお考えの方が多いと思いますが、実際はさにあらずなかなかまっすぐに飛ばないそうです。
最近の誘導ミサイルは敵の包囲網をくぐり抜けて飛ぶためその飛行形態の計測は3次元計測が必要不可欠でした。
ロケットの開発でも3次元計測は不可欠です。
衛星を打ち上げるロケットは巨大な構造物でこれが糸の切れた凧のようにどっかに飛んでいっては一大事!打ち上げる前にロケットの軌道を何度も計算し、計算どおりの経路でロケットが打ち上がって行くかをセオドライト(オプティカルトラッキングマウント)と呼ばれる測距儀の映像版を使って追跡します。
打ち上げ軌道が理論軌道から外れた場合、軌道修正するかさもなくば爆破しなければなりません。
セオドライトを使った3次元計測は、Vロケットを開発したドイツによって第二次世界大戦で確立しました。
次に3次元計測を熱心に行ったのは運動解析(バイオメカニクス)と身体障害者向けの歩行分析(リハビリテーション)でした。
スポーツ科学分野(Biomechanics)では、映像計測が盛んに使われていましたが2次元計測ではどうしても有効な計測結果が得られず、ひねり、重心計測など3次元情報でないと正確な情報が得られません。
DLT法(Direct Linear Transformation technique)が20年前より使われはじめ、フィルムカメラを使った3次元解析からビデオを用いた計測へと手法が変わってきました。
日本では東京大学を卒業しアシックスに入社した福田氏(故人)が最初にDLTを使ったバイオメカニクス研究をされた人だと言われています
 
 
Q43. 3次元計測装置VICONはどんな装置? (1999.05)
←2006年現在は、かなり進んだシステムになっているようです。
情報提供の問題があり1999年のデータをそのまま載せています。(2006.02)
 
A43. VICONは、英国Oxford大学モーリス博士とそのグループが開発した3次元画像処理装置です。
被写体に反射輝度の高いターゲットマーカを取り付け5〜7台のカメラを同期撮影して注目するターゲットマークを自動追跡し、三次元座標を構築します。三次元計測はとても複雑な処理を経るので、開発当初はDECワークステーションが使われていました。
パソコンが高速になり安価にもなってきたので、最近のシステムはWinows98/NTを使用しています。
VICONは、
1. データ取得用のCCDカメラ(赤外線LEDストロボ付)
2. データステーション370
3. パーソナルコンピュータ
4. カメラ位置を特定するキャリブレーションユニット(ダイナカル)
5. ターゲットマーカキッから構成されます。
 
オプションとしては、
a. フォースプレート
b. EMG
c. VTR
d. VICONクリニカルマネージャ
e. VICONクリニカルエバリュエーション
f. キネマティックソフトウェア
 
どがあります。
データステーションは、CCDカメラ制御、画像データのA/D変換、フォースプレート、EMGなどのアナログ信号(64chまで)の収録を行います。アナログ信号のサンプリングは画像データと同期して整数倍で入力できます。データステーションとWindowsパソコンはイーサネットで通信し、ほとんどの操作と解析結果はパソコンの画面で見ることができます。

 

   
VICONシステム。左がマーカ検出素子。
CCDカメラを用いレンズ前面部には赤外線フィルタが装着され被写体に取り付けたマーカから反射される赤外光源をとらえる。
カメラレンズ前面部には赤外LED光源が装着されている。
左側がデータ収録及びデータ処理を行うデータステーション。(1999年)
 
 
   
 
高速度イメージャ 200コマ/秒のサンプリングを行う。カメラは死角を出さないよう被写体の周りに5台〜7台設置される。(1999年)

  

反射マーカー。通常はφ25mm。
3Mのスコッチライト7610、7615が使われる。
スコッチライトは小さなビーズ玉が埋め込まれ支持体とビーズ樹脂の屈折率の違いにより
入射した光と同じ方向に射出する反射輝度が高く、白紙の600〜1600倍の明るさになる。
カメラと光源はできるだけ同一光軸より被写体に照射する必要がある。(1999年)
競走馬にターゲットマークを取り付け3次元計測(提供:中央競馬会)(1999年)
 
データは、ASCIIファイルでオープン(XYデータ)なのでこれを使ってMacやその他のパソコンに利用しているお客様もあります。
カメラの位置を特定するキャリブレーションにはVICONの真骨頂の手法である「DynaCal」と呼ばれるものがあります。
この手法は、500mmの長さにターゲットマークをつけた棒を振り回すことによりカメラの座標を決定します。
撮影エリアをまんべんなく振り回してこれをカメラがとらえCCDの撮影位置を計算します。
精度はダイナミックの方が良いという結果が出ています。
このダイナキャルはやり直しが何度もできます。
キャリブレーションは固定ポストのマーカを読み込むStaticとダイナキャルのDynamicの2系統で別々に行うことができます。
VICONのデータの収集時間は、フレーム数で32,000コマ(60コマ/秒で8分)となっています。
マーカの位置づけは1回行えばよくカメラ毎の位置づけは必要ありません。
これがVICONの大きな特徴です。得られた複数台からの座標データは、当然のごとくカメラによって見方が違いますから、データ取得後、すべてのカメラにわたって収録したターゲットマーカの座標ポイントの特定をしなければなりません。
旧式のVICONでは、この各CCDカメラにためられたターゲットの特定に多くの時間と労力を必要としました。
VICON370システムでは、三次元化された画面でターゲットに名前を入れていくという作業手順ですべてのカメラからの座標データを特定するという能力を持っています。
また、画面で見えにくい箇所はズームアップしたり視点を変えたりしながらマーカを特定できる特徴があります。
この特徴を、お客様はかなり好意的に受け入れてくれVICONへの信頼を厚いものにしています。
このターゲットマーク識別処理をGSI-?(Geometric Self Identification:マーカの特定作業)と読んでいます。
この手法は、1993.7月にVICONのユーザが開発しました。
それまではカメラ毎にマーカの特定を行っていて多大なる時間がかかりました。
GSI手法で一気に三次元化ができるようになりました。
VICONのデータの読み込みは520x252画素で取り込み、1024x490でコンピュータ置き換えます。
ターゲットマーカーの中心座標は重心法で中心を求めています。
コンピュータのデータファイルはアイコン化されビデオデータ、3次元化データ、アナログデータが有るかどうか確認できます。
VICONシステムには、以下のオプションソフトが用意されています。
 
 
【オプションソフト】
 
・VCM 日本国内で作ったソフト、関節中心座標を求めるソフト
・VCE (VICON ClinicalEvaluation)簡易ソフト
・VICONレポータ 3次元データ出力、ASCII出力。一枚の用紙に他種類のデータを呼び出すことが可能。
・ボディビルダ VCMが下肢に対しボディビルダは体表面に対する関節中心を求めるソフト。
・DIFF(Data Interchange File Format)臨床歩行分析懇談会が作ったフォーマット
 
VICONを使用されているユーザの関西大学 武井秀之、青柳誠司、高野政晴先生の報告(『人間の指の動作解析とロボットハンドへの応用』(第一報)『人間の指の動作解析とロボットハンドへの応用』(第一報)- 概念とVicon370を用いた予備実験 -)によりますと、人間の腕、指の動作の解析結果で、φ9mmのマーカを腕に付け、4台の200HzCCDカメラを使って、計測範囲200x200x200mmで、位置計測誤差0.1mm、標準偏差0.22の結果が出ているそうです。
 
 
 
Q44. 3次元計測装置VICONでどんなことができるの? (1999年)
 
A44. VICONは、Q43で三次元データをアナログ信号と共に収録できることが理解できました。
VICONはダイナカルにより測定する空間を合理的にキャリブレーションでき、しかもそのキャリブレーション時間は、数十秒〜数分で終了します。
得られたデータは、レンズ歪み補正シートを加えてターゲットマーカの追跡、3次元構築を行います。得られたデータから、
 
1. ライブモニタ:マーカの三次元表示
2. マーカの軌跡図
3. マーカの番号特定及びスティックピクチャ構築
4. フォースプレートのベクトルデータとの重ね合わせ表示
5. アナログデータの重ね合わせ表示
6. 各種グラフ表示、オイラー角、関節角、モーメント、EMG、トルク、パワーデータ表示
 
などができ、オプションで、DIFF、CAMARC変換も可能になっています。
 
           
 

 
 
以下のコンテンツは移動しました(2000.11.20) (2012.02.01追記)
 
 
【私の書いた参考文献】(2012.02.01)
 
【ウルトラナック(高速度カメラ)を使った文献】
 
 
 高速度カメラ入門 Q&Aトップに戻る
 
 
 
 
Anfoworldに戻ります。