完成するのかなコレ…
基本的な考え方
※勝手な推察も多分に含まれてます
※完全にデジタル処理が大前提です
イメージセンサについて
用語集
- フォトダイオード
- 光を当てると電荷が移動する(光電効果を持つ)素子
- 発生する電荷の量(=出力,電流)は入射する光子の量(=入力,光量)に比例する
- 大抵はシリコンに不純物を混ぜて作られるが,2族〜6族の原子を組み合わせて作るものもある
- シリコンは波長に応じて光を吸収し,すなわち波長によって出力が異なる
- また不純物の種類や量によっては,対応できる波長やその特性が変化する
- これ以上は量子論とかそこら辺の話になるらしいので追求しません,というよりはディスプレイを用いて加法混色で映像を再現するのが最終的な目的だと思います,イメージセンサのメーカーさんなら何らかの基準によって定められるRGB信号を算出する手法などを仕込んでそうですね…
- 厚さを考えたら薄膜と言ってもいい
- 有機光電変換薄膜
- CCD
- CCDイメージセンサ
- CCDを利用したイメージセンサ
- カメラで「CCD」と呼称すればこれを指す?が,「CCDイメージセンサ」と呼称する
- CMOS
- CMOSイメージセンサ
- COMSの特徴を持つイメージセンサ
- カメラで「CMOS」と呼称すればこれを指す?が,「CMOSイメージセンサ」と呼称する
- 有機CMOSイメージセンサ
- 有機分子と増倍装置で得られた電荷をCMOSイメージセンサと同様に扱う
- 日本だとPanasonicと富士フィルムが強い印象を受ける
- 「有機CMOS」と呼称すればこれを指す?が,「有機CMOSイメージセンサ」と呼称する
- MOSFET
- SN比
- シグナル÷ノイズ
- 高ければ高いほど高性能,マイクとかそうだもんね
フォトダイオードの説明 https://www.hamamatsu.com/resources/pdf/ssd/01_handbook.pdf https://www.hamamatsu.com/resources/pdf/ssd/02_handbook.pdf https://www.hamamatsu.com/resources/pdf/ssd/03_handbook.pdf (基盤一体化タイプがあるらしい) https://www.hamamatsu.com/resources/pdf/ssd/04_handbook.pdf
一般的なイメージセンサの説明 https://www.hamamatsu.com/resources/pdf/ssd/05_handbook.pdf
非Si系受光素子の説明 https://www.hamamatsu.com/resources/pdf/ssd/06_handbook.pdf
いずれも参考元,浜松ホトニクス株式会社のハンドブック資料
これはなんと11番まであるらしい…
Panasonicと富士フィルムの勇姿 news.panasonic.com 有機CMOSセンサーについて https://www.panasonic.com/jp/corporate/technology-design/ptj/pdf/v6301/p0107.pdf
CCDイメージセンサとは
縦方向にセルが並んだ転送用CCDに隣接する形でフォトダイオードが配置され, それが横方向に並んで2次元のプレーンを形成している.
- フォトダイオード・キャパシタと転送用CCDの間のゲートを閉じる
- フォトダイオードに撮影光を当て,その強度に応じた電荷を発生させ,キャパシタに蓄積させる
- キャパシタと転送用CCDの間のゲートを開き,電荷に流入させたら,直ちにそのゲートを閉じる
- 転送用CCD上で最上辺の電荷を上方向に押し出し,サンプル回路に接続する
- サンプル回路は電荷を測定し電圧に変換して出力する
- 空いた最上辺のセルに1つ下のセルの電荷を押し出し,さらに空いたセルに1つ下のセルの電荷を押し出し…以下略
- 上2つを繰り返し,転送用CCD上の全てのセルから電荷が取り出せたら終わり
- 回路上の電荷を全てリリースした後,待機状態へ
1段階の読み出しにかかる所要時間が走査線(後述)1行程の所要時間に相当し,
全ての読み出しにかかる時間がフレーム(後述)1行程の所要時間に相当する.
実際の基盤ではフォトダイオードそのものが容量を持つので,キャパシタとしても動作すると考えて良さそう…?
特徴
- 全てのセルにおいて露光が同時に終わる
- 転送用CCDがもたらす特有のノイズがある
- スミア:転送用CCDに当たってしまった光がそこに電荷を発生させ,それを出力だと誤認してしまうケース
- 極端に強い光を撮影したりするとそうなる,確かにあえてそういうエフェクトを入れたい時もあるが
- どんな風に映るのかはやってみなきゃわからんが,大抵は転送用CCDの方向で白飛びする
- 当然だが物理シャッターなら軽減が可能になる,写真ならこれでいける
- フォトダイオードの転送用CCDの間にストレージを設置し,電位の操作を用いて余分に発生した電子を逃がすことで,電子シャッターが実現できる,連続して撮影を行う必要がある動画にはそもそもの必須技術である
- ブルーミング:フォトダイオードが想定を超える量の電荷を発生させ,回路に溢れたり出力として扱い切れなくなるケース
- 大体スミアと似たようなことが起きる
- また同様にストレージの設置によって回路への悪影響が軽減できる
- スミア:転送用CCDに当たってしまった光がそこに電荷を発生させ,それを出力だと誤認してしまうケース
CCD上で電子シャッターを実装する事例 https://www.hamamatsu.com/resources/pdf/ssd/resistive_gate_ccd_kmpd9005j.pdf
CMOSイメージセンサとは
フォトダイオードとCMOSを並列して設置することで,撮影光から得られた電荷を電圧に変換する機能,
およびそれを制御する機能を同時に実装でき,そのセルを並べることで2次元のプレーンを形成する.
ただしトランジスタは多ければ多いほどコスパが悪くなりがちなので,複数のセルが乗り合うような工夫をする場合が多い.
- フォトダイオードとキャパシタ,およびキャパシタとサンプル回路の間のゲートを閉じる
- 直後からフォトダイオードに撮影光を当て,その強度に応じた電荷を発生させ,フォトダイオードに蓄積させる
- キャパシタ内の余計な電荷をリリースした後,フォトダイオードとキャパシタの間のゲートを開き電荷を流し込む
- フォトダイオードとキャパシタの間のゲートを閉じた後,サンプル回路のアンプ部分にキャパシタを接続する
- サンプル回路が電荷を測定し電圧に変換して送信する,その裏でフォトダイオードの電荷をリリースして待機状態にする
- キャパシタとサンプル回路の電荷をリリースして待機状態にする
- 全てのセルから電荷が取り出せたら終わり(セルの順番やタイミングには種類がある)
実は上記のパターンを実現する回路は4Tr(4トランジスタ)画素と呼ばれ,それぞれに以下のような役目が与えられる.
- 電荷移動用トランジスタ
- 増幅用トランジスタ
- 供給される電源を利用して電荷の量を電圧に変換する
- ここの精度が画質を決めると考えても過言ではない,超重要
- 選択用
- 増幅用トランジスタの出力を信号線に流すスイッチとなる
- 選択パルスが流される
- リセット用
- 諸々の電荷をリリースしてリセットするためのスイッチとなる
- リセットパルスが流される
参考 https://www.jstage.jst.go.jp/article/itej/68/3/68_216/_pdf/-char/ja
電圧変換アンプの位置ついて
素子の微細化に伴いフォトダイオードによる電荷の発生量そのものも減少するため, そこから適切な電圧を得るにはサンプル回路に精度の良いアンプが必要になるが, それを設置する場所によって違いがある.
- PPS方式
- APS方式
照射型の違いについて
基盤を作成するときに表裏のどちらに撮影光を当てるかによって変わる.
ちなみにフォトダイオード側が裏で配線の側が表となる,シリコン基盤に不純物を入れてフォトダイオードを形成してから配線すれば,確かに配線側が表になる…
- 表面照射型
- 配線が邪魔をするので乱反射を引き起こし,映像にノイズが発生する
- 裏面照射型
SONY広報 www.sony.com 特許詳細 http://www.conceptsengine.com/patent/grant/0003759435
取り出し方式について
転送用CCDによって取り出し方式が大まかに定まるCCDイメージセンサと異なり,
こちらはCMOS回路を用いてセルを選択してから出力の取得を行う.
この装置はアナログデジタル変換器(ADC)と呼称され,今現在の開発競争が熾烈を極めている(スマホの進歩が早すぎる)
ほか,ADCそのものに限らずCMOSイメージセンサにおける取り出し方法としても差異が見られる.
- 逐次型
- 画素を1つずつ選択して走査する
- ブラウン管と同じ
- 別にサンプル回路の制御部が1個とは限らない
- 動作速度を上げるために複数を同時に動かす場合もある
- その分だけ配線は複雑になるし値段も高くなる
- ぶっちゃけ今時のカメラにはあんまりなさそう
- 画素を1つずつ選択して走査する
- 並列型
- 1列にADCを1個ずつ配置する
- 走査は実質的にCCDと同じ感じになる
- 動作速度は跳ね上がるし配線も単純になる
- しかし制御回路の精密さが問われる
- 一般的なデジカメは大体これ?
- 俗称「ローリングシャッター」(後述)
- 1列にADCを1個ずつ配置する
- グローバル型
- 擬似グローバル型…?
- 「露光はほぼ同時に終わるが,その後で電荷を画素の中の別の場所に移して,後から並列型で読み出せば良いのでは?」
- でもこれ「最初からそうすれば良くね」案件だと思うけど…
参考
ADCによる違い
ednjapan.com
SONYがグローバル型のCMOSイメージセンサを実装した事例
eetimes.itmedia.co.jp
擬似グローバル型?について
imager.no-mania.com
特徴
- MOSFETのオンオフがあるため消費電力が大きい
- 工業製品である以上,素子が増えるにつれて出力値が不均一になる
- 特にAPS方式だとオフセットもゲインもズレる
- なので補正ソフトが処理側に必要となる
- 4Tr画素の採用で品質はだいぶ向上したらしいが…
- 特にAPS方式だとオフセットもゲインもズレる
- フォトダイオードが光を受け取れる面積が狭い
- 技術で解決しつつあるよ,裏面照射型だと尚更に強い
- ローリングシャッター(後述)は辛い
- グローバルシャッター(後述)は高い
- が,庶民の手にも届くようになった
- グローバルシャッター(後述)は高い
- 既存のCMOS論理回路のノウハウが既にある
- 開発という観点ではとても強い
- CCDイメージセンサに比べても構造が(生産の場面において)単純になる
- あと量産体制が整いやすいので比較的に安くなる
有機CMOSイメージセンサとは
セルの上方の全面に展開した有機光電変換膜において,有機分子の光電効果とバイアス電圧による増倍機構で得られた電荷を,
セルの下方にあるキャパシタに蓄積し,それをCMOSイメージセンサと同様の機構で読み出す.
動作順序は(おそらく)フォトダイオードを用いたCMOSイメージセンサを同じ.
特徴
- 扱える電子の量が増えたので,そもそもの感度が向上している.
- 何よりスペースに余裕ができて,キャパシタの容量が大きくなった
- フォトダイオードのような飽和も起きにくくなり,ダイナミックレンジが大きくなる
- 照射→励起→増幅→流出を繰り返せばいいので
- 暗くて何も映らない・眩しくて白飛びする,といった現象が起こりづらくなる
- でも逆にこれ再現できるディスプレイを用意する方が大変なんじゃないんですかね…
- キャパシタを実質DRAMとして扱えるようになる
- 自然とグローバルシャッターの下地ができちゃったねぇ…
- なんなら従来の読み出し回路で擬似グローバルシャッターができる
- 太陽電池になるための受容体がないということは,バイアス電圧をかけなければ電荷は移動しない
- 露光の時間や感度がバイアス電圧によって制御できるのでグローバルシャッターができる
- しかも当初から裏面照射型が前提になってる…
- 自然と遮光も出来てしまうので誤差の発生も抑えられるね
- 有機分子の波長特性によっては有機光電変換薄膜だけで色の選択ができてしまう
- フィルタや分光器が抱える問題がなくなる
加法混色の実現
人間の眼は光の感覚受容期器官であるが,RGBの3つの色にそれぞれ強く反応する錐体細胞によって撮影光の強度を測定し,
そこから得られる電気信号の強度比によって色を認識している,加法混色を採用している.
ということはイメージセンサも同様にRGBの3つで認識すればよく,そのためには以下の方法がある.
ベイヤー型
RGGB(赤緑緑青)のみを透過させる装置を敷き詰め,その下に4つのフォトダイオードをそれぞれ配置する.
カラーフィルタか分光器か
そうでなくてもシリコン基盤ですら光を吸収するのに,カラーフィルタで光を吸収するならばさらにロスが増える.
そのため分光器を採用することで,対応する波長の光を無駄なくフォトダイオードに完全に導通させられる.
ちなみにSi基盤で最も減衰しない色は赤で,青はその100分の1程度のゲインしか得られない.
3層分光型
2019年,SONYが有機光電変換薄膜を3つ重ねたイメージセンサを開発,2020年にはNHKも追随した.
減衰しやすい青が上層・減衰しにくい赤が下層,という構造を取り,エネルギーロスが減り感度向上につながる.
分光器やフィルタが不要な有機薄膜だからできることでは?
まとめ
CCD | CMOS | CMOS | |
フォトダイオード | CCDイメージセンサ | CMOSイメージセンサ | |
有機光電変換薄膜 | 有機CMOSイメージセンサ |
解像度関係
正方形の画素1つ分を1px(ピクセル),1インチあたりのピクセル数をdpi(ドット・パー・インチ)と呼称する.
縦方向について
画面を左から右に走りながら上から下へと順番に辿っていく,と捜査線が定義されている.
この本数が映像の精細さを決めており,縦方向の画素数とほぼ同じ意味を持つ.
これは一般的な理工学用(横書き)ノートと同じ.
規格上72の倍数になりがち
標準的な規格はだいたいこれになる.
従来ディスプレイ上にデジタル画像を表示する際に72dpiになっているのが関係していそう(今はもっと高密度化してるけど).
またサイズが小さい場合この限りではない(ガラケーで使われていた画質とか).
横方向について
この大きさによってアスペクト比率(画素が正方形の時,横の画素数:縦の画素数)を定めることができる.
(ITU系)規格上128の倍数になりがち
72に16/9をかけたら128になる,というかアスペクト比が16:9である.
民生用デジタルコンテンツの大概がこれに基づいている.
ちなみに「〇〇/30/p」「〇〇/60/i」などの記載が動画のプロパティなどで見受けられるが,
その〇〇は縦の画素数(捜査線の本数)を意味するので注意,決して横の画素数ではない.
またサイズが小さい場合この限りではない(ガラケーで使われていた画質とか).
(DCI系)規格上2の累乗になりがち
「○K画質」に対して「2の累乗である横の画素数の最大値」「72の倍数である縦の画素数の最大値」を先に設定し,
そこから必要なアスペクト比に合わせて切り出す方針を取っている.
電器系のITUと映画系のDCIとでは色々と異なるようで,そっち系の撮影に用いるカメラ・ディスプレイ・プロジェクターはDCI系に準拠し始めている,特にDCI 4Kの標準化が進む.
ほぼ1.9:1となるが,シネマスコープでは逆に縦の画素数を削減することで,おおよそ2.39:1になる.
2の累乗だとメモリやレジスタ的な都合が良かったりしそうだけど,どうなのだろうか…?
シネマスコープの種類
「1.9:1」より広いとシネマスコープと呼んでも良さそう,
しかし「2.2:1」「2.35:1」「2.39:1」「2.66:1」「2.77:1」などの様々なサイズが使用されており,
例えばエヴァQとシンエヴァは「2.35:1」の「カラースコープ」(独自規格らしい)を採用していた.
一方で昔からある著名なフィルム映画は「2.39:1」をよく採用していたという歴史があり,
これは主にアナモフィックレンズを用いたカメラによる撮影で得られる形式であったが,
そのためにDCIも同じものを採用したのではないだろうか.
参考
https://www.nacinc.jp/creative/cine-lens/anamorphic-lens/
ところで個人的には「212 : 33×43」=「4096×1728」の「2.370:1」が良いと思います,覚えやすいし美しいので…
誰か流行らせろコレ
フレームレート関係
1秒間に表示する画像の枚数をfps(フレーム・パー・セコンド)と呼称する.除算すればフレーム1つあたりの表示時間になる.
インターレースとプログレッシブ
1枚の画像を常に表示し続ける(すなわち走査線が必ず画面を一巡する)プログレッシブ方式が現在の主流になりつつあるが,
機器の性能が確保できない場合は1枚の半分の画像を交互に表示する(すなわち走査線が1つ飛ばしになりながら移動する)
インターレース方式が利用される場合もあり,同じフレームレートでも「p」「i」の有無で区別がなされる.
例えば「1080/60/p」は必ず「60fps」であるが,「1080/60/i」はデータ量を見れば「30fps」である,
そして「1080/30/p」も「30fps」であり,方式を変えれば同じデータ量でもスムーズな映像を表示できる可能性がある.
テレビ放送
諸事情あって
- 29.97fps(30-0.03)
- 59.94fps(60-0.06)
が採用されている.
アナログ放送時代
前者はアナログ放送用のNTSC規格で策定されたもので,モノクロ放送ではちゃんと30fpsだったものの,
カラー放送にするあたり帯域に載せたい情報,すなわち輝度情報と音声情報に加え新たに色度情報が必要となった.
入力する映像データそのものは加法混色における三原色のRGBで構成されるが,
そこから輝度情報を与える輝度信号Yと2つの色差信号I(橙との色差)・Q(緑との色差)を新たに算出し,
輝度信号はモノクロ放送と同様に扱いつつ,
色差信号は搬送波に対する位相差(色相)と振幅(彩度)を用いて表現されることとなった.
この状況においては,与えられる帯域が6MHzに対して
- 音声信号
- FM(周波数変調)
- 搬送波の周波数faが定義される
- この搬送波は音声サブキャリアとも
- チャンネル周波数 + 0.25MHz(ガード帯域) + 1MHz(輝度信号の中心まで) + 4.5MHz(音声信号の中心まで)
- だいたい±0.25MHzでBPF(バンドパスフィルタ)がかけられている
- 輝度信号
- 全搬送波
- 搬送波を全て出力する
- そういや日本だと抑圧搬送波とは区別しないみたいな話を聞いたことがあるけど…
- 残留側帯波
+単側波帯がメインだが直流付近も使いたいのでちょっとだけはみ出る
+負極性
- 最大の入力で最小の信号を出力する
- 搬送波の周波数fbが定義される
- この搬送波は映像キャリアとも
- チャンネル周波数 + 0.25MHz(ガード帯域) + 1MHz(輝度信号の中心まで)
- AM(振幅変調)
- さらに同期周波数fhが定義される
- スペクトルで山状になる部分の間隔のこと
- fa / 286 ≒ 15.734kHz
- 白黒時代は15.75kHzなのでまぁ誤差の範囲に入るよねという判断がされた
- 下は-1.25MHz・上は4.2MHzでBPFがかけられてる
- 全搬送波
- 色差信号
- 全搬送波
- 搬送波の周波数fscが定義される
- この搬送波はカラーサブキャリアとも
- チャンネル周波数 + 0.25MHz(ガード帯域) + 1MHz(輝度信号の中心まで) + 455 fh / 2 = 4.83MHz(4.829 5454...)
- 両側波帯
- 定義上そうなる…?
- アナログQAM(直角位相振幅変調)
- I信号とQ信号を振幅変調して位相90°ズラして足すとこうなる
- これをすると位相差(色相)と振幅(彩度)が同時に得られる
- I信号の方がQ信号よりも帯域が大きい(人間の目が敏感なので)
- どうもI信号の方がQ信号よりもBPF(バンドパスフィルタ)の幅がデカく,前者は2MHz〜4.2MHz,後者は2MHz〜4.2MHz
- これがどう影響するのかよくわかりませんね…
- 変調前の時点でQ信号には0.5MHz.I信号には1.5MHzのLPF(ローパスフィルタ)がかかってるっぽい
- インターリープ式を採用している
- スペクトル上では輝度信号と色差信号の山が半分ずつズレる形になる
- すなわち色差信号の中心周波数がfscであり,ここから輝度信号と同じくfhだけ同期周波数が存在する
参考 www.wdic.org https://www.jstage.jst.go.jp/article/itej1997/57/9/57_9_1090/_pdf slidesplayer.net
色空間関係
規格一覧
8K
呼称 | 解像度 | 縦横比 | 俗称 |
---|---|---|---|
ITU-8K | 7680×4320 | 1.78:1 | 4320p, 8K UHD |
4K
呼称 | 解像度 | 縦横比 | 俗称 |
---|---|---|---|
DCI-4K | 4096×2160 | 1.9:1 | |
ITU-4K | 3840×2160 | 1.78:1 | 2160p, 4K UHD |
2K
呼称 | 解像度 | 縦横比 | 俗称 | 備考 |
---|---|---|---|---|
DCI-2K | 2048×1080 | 1.9:1 | 映写機は |