2010/09に公開された文字認識本

まださわりしか読んでないけど映像内の文字認識を中心とした内容っぽい?


目次
1章 文字認識の前処理技術
2章 ストリーミングビデオからの文字認識
3章 分解した文字認識のための適応特徴抽出法
4章 孤立した手書き文字認識のためのハイブリッドHMMとファジー理論
5章 バングラデシュテキスト認識の開発(現在の状況と将来課題)
6章 空間特徴と文字の運動学の評価(主観的な解析と客観的尺度)
7章 ビデオベース手書き文字認識
8章 交換神経性皮膚反応を用いるコミュニケーション支援法
9章 指点字教示システム


原文 Character Recognition


序文の一部分


1章は様々な前処理技術をレビューする。前処理技術は、認識の効率を高めていくために極めて重要である。また、文字認識の特徴抽出の適合性を議論する。
2章はビデオ内のテキスト認識のための総合試験システムを述べる。それは、各々の段階で用いた技術やいくつかのサマリーやいくつかの使用事例を提供する。
3章はカテゴリ依存特徴抽出法のひとつを提供する。それは、ビデオのテキスト認識において劣化や変形の両方の影響に適応して補正する。
4章はハイブリッド手法、構文解析のためのファジー理論の組み合わせや手書き文字認識のための統計モデルとしての隠れマルコフモデルを紹介する。
5章はOCRシステムが効率的でない言語の1つとしてベンガル語認識における問題とその研究の現在の状況を述べる。
6章は手書きの品質を評価していく方法を提供する。この試みは手書き認識の精度を高めることにつながる。
7章はビデオベース文字入力システムを述べる。それはオンライン文字認識を使う。また、提案システムの実現可能性を明らかにする。
8章は物理的にチャレンジした人々のための文字入力デバイスとして交換神経性皮膚反応の利用を提案する。また実世界で遭遇したいくつかの問題を議論する。
9章もまた視聴覚障害者のコミュニケーションシステムに取り組む。このシステムは認識するための指点字と出力文字を使う。


著者はこの方 ,ハンサムですね。

私訳タイトル : マルチエンジンの学習環境を使用したOCRエラーの低コストな訂正

原文
Low Cost Correction of OCR Errors Using Learning in a Multi-Engine Environment


拙い私訳

人間の仕事を利用することで、OCRエンジンの出力を訂正するための低コスト方式を提案する。その方法は、誤りを推定するニューラルネットワークを利用する。ニューラルネットワークはground-truth dataからあらゆる単語の誤り確率を評価するために学習する。誤り推定は複数のOCRエンジンの出力から計算した特徴を使う。確率的誤り推定の出力は、複数の単語を人間が点検し、どちらかを決定するのに利用している。誤り推定は、人間の訂正プロセスの効率性を改善するために通じている単語エラーROCのもとで、部分最適化をするために訓練される。コストの大幅な削減は、訂正プロセス中に似たような単語と結びつけてクラスタリングしていくことで達成される。また、どのようにして、アクティブラーニング技術が誤り推定の効率性の改善促進に利用されるのかを示す。

キーワード:OCR訂正、多数のエンジン、機械学習クラスタリング、アクティブラーニング

会社の存在意義

社会に貢献し続けていくことが使命。
社会の定義は自分が住んでいる町や国でもいい。自由。
今取り組んでいる仕事は正しい行動なのかというのは、ある程度こなさないと分からない。
分からないけど自分と向きあって正しいと思うのならそれでいいのかもしれない。
会社からの命令の意図は分からないけど、自分が楽をするために都合の良い解釈をするのは自由。
ただし、正しい方向に少しでも進まない楽は、誰も望んでいない。
その見極めは難しいが努力する必要はある。

PRML読書会最終回

昨日で本レーンは終わりましたが、まだ理解しきれていないし自分のものに
なるまでは、終わりがない感じ。復習レーンも参加予定。


1年かかってようやく数式を書いたり、発表者のソースと数式をにらめっこしながら理解できるといった状況です。


まぁ反面教師だと思ってこういうやり方をしているとこんなに時間かかるんだぐらいに思ってもらえれば良いです。


とりあえず振り返ってみると
昨年8月の第4章で初めて参加したときの自分は、数式いっぱいの発表に面食らってなんだこの勉強会はー!という感じでとりあえずホワイトボードに書かれた展開式をただノートに写してました。
それまでは、PRML上下巻すでに購入してたけど積ん読で、これを機に読み始めたのですが次の勉強会までに読みきることができないまま第5章に参加しました。
当然、理解出来ないわけで復習といっても読み返すぐらいでこのままではマズイなと思い、いつか自分も発表しなければということで、まず始めたのが数式をTeXで書くことからやりました。かなり苦労しました。



自分が使ったのはTeXclipで、6章の式をひたすらTexでタイプしてました。
その状態で6章を迎えたわけですが、この頃から発表者の言っていることが少し理解できるようになり
ノートに写すことがやや減りました。まぁ発表のクォリティが高くて分かりやすかったのもあります。



7章はずっと以前から気になっていたSVMでしてこの予習ではSVMのライブラリを習得して教科書に書いてあるデータを再現できるようになりたいなと思い望んだのですが英語が壁となり一応動かしたというレベルで、TeXの数式タイプぐらいしかできませんでした。



たしか昨年11月頃の時に、次の8章は来年ということで、ここで初めて発表することを決意しました。
一応余裕をもってパワーポイントで作成していましたが発表前日までいろいろ直してました。
演習はweb解答があったのですが全然理解できないので素直に当日の発表で分からなかったことを伝えました。
トップバッターで本レーン初の発表ということもあってかなり緊張していました。



9章の予習は8章の発表の後、緊張の糸が切れたのか、まったく身に入らないまま読書会当日を迎えてしまいました。
参考文献の1論文を辞書片手に苦労しながら単語を訳していきました。あまり理解できませんでした。
予習をしてないのでなんとなくは、発表者のいっていることは分かるけどまぁわかった気になっている状態。
この回辺りからyoutubeによる中継が流れるようになったと思います。


次の9章後半から10章前半は、youtubeで見ようと思い参加登録はしませんでした。これは後から振り返ると参加しとけば良かったです。というのは14章でこの回のEMアルゴリズムを使うのですがyoutubeは画質、音声とも調子が良くなくてあんまり頭に入りませんでした。なので14章の予習はEMアルゴリズムの理解から始めるなど時間かかりました。



10章後半以降は参加し続けたわけですが、この頃、式の展開を自分で、できるようにしなくてはと思い何度かトライしようと思うのですが手が動かないんですね。
分からないので、まずは式を写すことから始めました。丁度、PRMLが読めるようになるまでに、この本で力をつけとくといいよという紹介があり、それらの本も読むことにしました。これ実は積ん読でして、けっこう凹みました。なんで読まなかったのかってぐらい分かりやすい。
で、ラグランジュ未定乗数法や変分法などが良く出るということなのでどういう意味があるのかというのがなんとなく分かるようになりました。



11章はサンプリングで実装が簡単とか聞いていたので自分もトライしようとしたのですがRがわからないのと数式とRのリンクがとれていないため撃沈しました。やっぱり数値解析と行列を実装したことがないと、いきなりというのは無理がありました。後、難しい本だから正しいとは限らないことを学習したので、なぜか間違い探しとかしていました(といっても誤字を指摘する程度でしたけど)。



12章の予習は、数式の理解・展開は思ったより手強いということで参考文献に目をつけました。
今まで本を読んでもあんまり理解できないので参考文献読めばなんとかなるのかなーと軽く考えていました。甘かったです(苦笑)。



翻訳本なので参考文献は当然英語なのですが、まぁ本を1ページづつ読んでは参考文献一覧をめくってグーグルで検索してpdfなのかどうか調べて、落としてという繰り返しが頻繁にありました。
12章はものすごいたくさんの参考文献が引用されていて面倒になり、はてなに一覧を載せることを思いつきました。
これだけでも大変でしたね。



当日は、まぁちんぷんかんぷんでした(苦笑)



13章の予習は、数式を写経して、参考文献を一覧にしてからpdfを落としてくるところまではスムーズに行きました。
このころにようやく内容についてどういう意味なのか考えられるようになりつつありました。
後、当日の発表会でノートに写すことも激減しました。割と理解できるようになったと思います。
ただ、数式展開は今だにできないですし、コードに落とすことも他力本願な所もあるので、振り返ると
結局の所、発表者のレベルが上がって、分かりやすく伝えようと努力されていたことが大きかったと思います。
それからtwitterやブログ、slidshareなどの登場も大きかったです。これらツールのおかげで予習・復習をなんとか継続することができたのかなと思います。



1年で自分が身についたことは

  • 数式をTeXでタイプできるようになったこと
  • PRMLの本をある程度読めるようになったこと

 (読書会のおかげでもあります感謝!)

  • ある程度の品質で発表資料を短時間で作成できるようになったこと

自己紹介の時ここで勉強してきたことを仕事に生かせたらということを発言しましたが
今だに実現できる見込みがないですord
後、議論に参加出来ていないのが苦しいところ。
ツイッターで質問するのもまだ躊躇してしまうところは直さないといけないなぁと思っています。


あえて挙げるならば、
詳細にまで目を配ること
これは、つまり図の点一つ一つの位置関係にも意味がある。
書かれている本は本当に正しいのかどうか自分で確かめるという視点は
仕事に役だっているのかなと思います。



ぐだぐだ書いてきました。

あと、レベル高そうだからという理由で参加しないのはもったいないです。自分の立ち位置が分かるだけでもメリット?(逆に知らない方が良いのかもしれませんが(苦笑))があると思います。自分の場合、まだ全然わかってないなぁ頑張らないといけないなぁという風に強引にでも思うようにしています。



読書会に参加して仕事との両立はかなり苦しかったのですがPRMLを全章読みきったことは事実として残りました。
読書会の皆様、会場を貸していただいた方々、発表者・参加者・翻訳者・監訳者・出版社の皆様などなど
ありがとうございました。

14 reference

拙い直訳なので内容は無保証です。
アプストラクト読むだけでも大変です。

14.2

バギング予測
バギング予測は予測に関して多くのversionが生じる手法であり、集計した予測を得るために利用している。数字の結果を予測している時、説明に関しての集合の平均、また、クラスを予測している時、大部分投票する。複合versionは、学習セット、またはこれらを新しい学習セットとして使い、bootstrapを反復することで形づくられている。実世界のテストやクラス分類器を利用しているシミュレートしたデータセット、回帰ツリー、線形回帰におけるサブセット選択はバギングが十分な精度を与えることができることを示す。重要な要素は、予測手法の変わりやすさである。無秩序な学習セットは構築した予測における重要な変化を引き起こすと、精度を良くすることができる。

バギングの意味が、まだよく分からない。

こちらの説明こちらも分かりやすい。

version:説明とかあるけどそのままにした。
R packageではadabag
が該当するようです。


14.3

新しいboosting algorithmによる実験
論文「A decision-theoretic generalization of on-line learning and an application to boosting.」より、新しいAdaboostと呼ばれる「boosting」アルゴリズムを紹介した。理論的には常に分類器を生成する任意の学習アルゴリズムの誤差をかなり減らすことに利用可能。その性能は勘よりも良い。
また「擬似的損失」の考えと関係があることを紹介した。つまり識別するために最もハードであるラベルを集結するマルチラベルコンセプト学習アルゴリズムを促進する手法である。
本論文では、実験を述べる。AdaBoostをより良く評価するため実施した。同時に「擬似的損失」をさせないで、実際の学習問題において実施した。
 2セットの実験を実行した。最初のセットで様々な分類器を統合する時に利用する手法であるBreimanの「bagging」手法のboostingと比較した。(決定木を含んでいて、単独属性値テストを含む) 機械学習ベンチマークの収集物で2つの手法の性能を比較した。2番目の実験セットでは、OCRでの最近傍分類器を用いたboostingより詳細な性能を調査した。

靴下にゃんこさんが完結にまとめていた。
こちらの方は参考になるリンク多数有

欲張り近似関数:勾配boosting machine
近似関数は、パラメータ空間よりもむしろ関数空間の数値最適化の全体像から見る。接続部は、stagewize拡大式展開と最急降下最小化との間で作られる。汎化勾配降下「boosting」パラダイムは、どんなフィッティング規準に基づいても展開できるよう拡大するために発展している。具体的なアルゴリズムとして、最小二乗、最小絶対偏差、回帰のためのHuber-M損失関数、クラス分類器のためのマルチロジスティック尤度を述べる。具体的な強化は、特定のそれぞれの追加コンポーネントにおいて決定木の場合から得られる。「Tree Boost」のモデルのような解釈ができるツールを紹介する。決定木の勾配boostingは優位に作り出せる。特にクリーンデータよりも少ないマイニングに適している。このアプローチとFreundとSphapire 1996、Friedman, Hastie、Tibshirani 1998 のブースティング手法との間の関係について議論する。

回帰問題の拡張版ブースティング



14.3.1

追加型ロジスティック回帰:boostingに対する統計的所見
Boostingは分類方法における最近の発展において重要なひとつである。Boostingは、トレーニングデータの重みを変更しないように分類アルゴリズムの適用を連続することで動作する。また次に多数の投票を重みに加えて取り込む。このようにして生産する。多くの分類アルゴリズムにとって(シンプルな戦略)性能の飛躍的な改善の効果を生む。一見したところ、不可解な現象のように見える。よく知られている統計の原則に関して理解できるようになる。(すなわち、追加型モデルと最大尤度)。2クラス問題においてboostingは1つの規準として最大ベルヌーイ尤度を用いたロジスティックスケール上の追加型のモデル化をするための近似として見ることができる。より直接的な近似を開発する。そしてboostingによって、ほぼ同一の結果を示す。多項式尤度に基づくダイレクトマルチクラス一般化理論は、大抵の状況において最近提案したboostingのマルチクラス一般化理論と比較できる性能を示すことで導く。いくつかは、はるかに優れている。しばしば10から50の因子で計算を減らすことができるboostingの小さな変更を提案する。最後に、boosting決定木の代わりの定式化を作ることでこれらの本質について問う。このアプローチは最先端木の誘導に基づいている。しばしばよりよい性能の先頭を行く。統計的決定規則の解釈を与えることができる。また、計算的に最も速い。大規模データマイニングアプリケーションにより適するよう作っている。

指数誤差関数の逐次的最小化
靴下にゃんこさんが完結にまとめていた。


14.4

決定木への誘導
事例からの推論誘導によるナレッジベースシステムの構築技術は、実際のアプリケーション別に、成功裏に実証されてきた。本論文では、色んな種類のシステムで利用されてきた決定木を統合するアプローチを要約する。また、そのような1つのシステム(ID3)について詳細に説明する。最近の研究結果は、ノイズまたは(もしくは)不十分な情報に対応するために修正することができるやり方の方向性が見える。報告された基本的アルゴリズムの欠陥は、比較することで打開する2つの意味について議論する。本誌は、現在の研究の方向を図解で結論を出す。

木構造モデル

ID3について

  • Quinlan,1993

Programs for Machine Learning.

注意:book reviewを訳しました。どんな本なのか概要を述べているようです。

マシンラーニングプログラム
決定木を構築していくアルゴリズムは、大抵よく知られていたり、全ての機械学習手法で幅広く利用されている。決定木アルゴリズムの中でJ.Loss QuinlanのC4.5にとって代わるID3は、機械学習コミュニティ内で恐らく(十中八九)最も評判が良い。これらのアルゴリズムや変化はQuinlanが紹介して以来、非常に多くのテーマで研究されてきた。最近まで、決定木入門を探している研究者はQuinlanの影響力の大きいMachine Learning Journal誌[Quinlan,1986]に頼った。新しい本(C4.5:Programs for Machine Learning)の中でQuinlanは、正確にまとめている。最新の発展を含む。彼の整然とした体系の説明がたくさん必要だ。このような本は多くの研究者や学生のライブラリに追加されるのを歓迎する。

C4.5について

本なので省略

クラス分類と回帰ツリー

CART

  • Hastie et al.,2001
    • The Elements of Statistical Learning.

本なので省略

統計学習の基礎


14.5.3

局所エキスパートの混合適応
多くの分離ネットワークで構成されたシステムにおいて作られた新しい教示あり学習を示す。それぞれ、トレーニングケースの完全集合の一部を処理するための学習。新しい手段は、マルチレイヤーの教示ありネットワークのモジュールバージョンか、もしくは、優位な学習の連想バージョンとして見ることができる。したがって、どうも異なるアプローチであるこれら2つが新しいリンクをもたらしている。適切なサブタスクの母音識別タスクを分ける処理の学習を実証する。それぞれとてもシンプルなエキスパートネットワークによって解くことができる。

エキスパート:異なる構成要素と異なる領域を持った入力空間があって、それらの分布をモデル化したもの?

こちらの論文によると、歌手の声を識別するのにわざわざバックの音楽と歌手の声を分けてうんぬんするよりも人が聞いているようにそのままの音で識別できるよって解釈しました。

エキスパート混合階層とEMアルゴリズム
教示あり学習のツリー構造アーキテクチャを示す。基本的なアーキテクチャの統計モデルは混合係数や混合要素の一般化線形モデル(GLIM's)の両方を持つ混合階層モデルである。学習は最大尤度問題として処理される。具体的にはアーキテクチャのパラメータを調整する期待値最大化(EM)アルゴリズムを示す。また、パラメータが徐々に更新されるオンライン学習アルゴリズムを開発する。比較シミュレーション結果はロボットの動的領域で示される。

色んな種類の混合分布がさらに混ざったモデルのイメージでOKなの?
赤穂さんの論文

「脳の科学第8回」p11引用

ME とは入力データ空間をいくつかの小領域に分割し,その分割された
各領域に対してひとつのニューラルネットワークを割り当てることによって,複雑な問題を解くための手法
ベイズ階層混合エキスパート
階層混合エキスパート(HME)は、入力空間を分けるソフト確率に基づいた、回帰や分類器でよく知られている木構造モデルである。オリジナルの公式でそのパラメータは、最大尤度で決定される。over fittingを厳しくする傾向がある。尤度関数の特異点を含む。その上最大尤度フレームワークは、複雑なものや木の構造の最適化において、距離が不自然であることを提示する。以前、HMEモデルのベイズ処理を与える試みは、ラプラス近似に基づいた局所ガウス表現かまたは、入出力分布の結合分布を表現するモデルを更新していくことが期待されている。ゴールを予測するならリソースのムダをなくすことができる。本論文では、変分ベイズに基づくオリジナルHMEモデルの十分なベイズ処理を説明する。「局所」と「大域」変分法を混合することで、モデルの下におけるデータの確率の境界の正確な下界を獲得する。この境界はトレーニングフェーズ中で最適化されている。また生じている結果は、モデルの次数選択に利用できる。ロボットアーム運動学について記述されたデータセットにおいて、このアプローチを用いた結果を示す。

変分推論法ベース階層的混合エキスパートモデルのベイズ的な扱いについて説明


つ、疲れた。

13 reference

以下の一覧は論文のpdfを直接リンクしています。
一部、pdf以外のリンクもあります。

13.1

13.2

  • Nag et al., 1986
    • Script recognition using hidden markov models.
  • Krogh et al.,1994
    • Hidden Markov models in computational biology: Applications to protein modelling.

  ps file ftp://ftp.cse.ucsc.edu/pub/protein/hmm.part1.ps.Z

13.2.2

  • Baum,1972
    • An inequality and associated maximization technique in statistical estimation of probabilistic functions of Markov processes.
  • Jordan,2007
    • An Introduction to Probabilistic Graphical Models.

13.2.5

  • Duda et al.,2001
    • Pattern Classification (Second ed.).

13.3

線形フィルタリングと予測問題のための新アプローチ

古典的なフィルタリングと予測問題がランダムプロセスのbode-shannonの説明やダイナミックシステム解析手法の「状態遷移」により再び研究されている。
新しい方法が3つ述べられている。
(1)定常と非定常統計、増大するメモリや無限メモリフィルタの更新がない場合に使用する問題解決手法と定式化
(2)非線形微分方程式は最適推定誤差の共分散行列から導く。最適線形フィルタ方程式の微分係数式の解から、さらに計算せずに求まる。
(3)フィルタリング問題はノイズフリーレギュレーター(調整)問題の双対になることを示す。
ここで開発した新しい方法は、2つのよく知られている問題に適用される。以前の結果の確認と計算の確認をしていく。
議論は、大部分は自己完結で、最初の方針から始める。ランダムプロセス理論の基本コンセプトはAppendixの中でレビューした。
カルマンフィルタ基礎

この本はカルマンフィルタを構築するための解説書。
どのようにしてフィルタリング方程式が実問題に適用できるかを示す。…
線形ダイナミックシステムの最尤推定

付加的ガウスノイズが存在する場合の線形ダイナミックシステム状態を推定する問題を考察する。フィルタリングとスムージングの確率推定に関連している微分方程式は、誤差の共分散に関連している式の似たセットと同じように導かれた。微分は、最尤法が基本であり、最初の確率密度関数の単純操作に依存する。解はデジタルコンピュータ上で容易に機械化した式の中にある。数値例は推定誤差の減少をスムージングしていくという長所を示すために含まれている。Appendixの中で、別々のシステム結果は正式に連続的なシステムとして拡大されてきている。

13.3.2

線形ダイナミカルシステムのパラメータ推定

線形システムは、ダイナミカルシステムの振る舞いのモデル化や制御をするため、工学分野において広く利用されている。ここで注意することは、線形システムのパラメータ推定による期待値最大化(EM)アルゴリズムを提示する(Shumway and Stoffer 1982)。また線形ダイナミカルシステムと因子分析、隠れマルコフモデルとの間の関係を指摘する。

13.3.3

状態空間モデルスイッチングのための変分学習

時系列における新しい統計モデルを紹介する。線形ダイナミックシステムで近似した体制において、セグメントデータを繰り返し、かつ、これらの線形体制のパラメータを学習する。このモデルを組み合わせ、最も広く使われた確率時系列モデル(隠れマルコフモデルと線形ダイナミカルシステム)2つを一般化する。そして、制御や経済論文で広く利用されたモデルとして密接に関連している。

線形体制と訳したが、他には線形型とか良い訳が浮かばなかったです。

13.3.4

非線形/非ガウシアンベイズ状態推定新アプローチ

bootstrap filter アルゴリズムは、再帰ベイズフィルタの実行を提案されている。
状態ベクトルに必要な密度は、ランダムサンプルの集合であることを示す。それはアルゴリズムによって、更新され、伝播される。その手法は線形性やガウスノイズの条件に制限されない。どのような状態遷移や測定モデルでも適用されるかもしれない。トラッキング問題関連のシミューレション例を示す。このシミューレションは基本アルゴリズムの効率の改善に向かう計画を含む。例えばbootstrap fileterの性能は標準的に拡張したカルマンフィルタに対して非常に高い。
ダイナミック確率ネットワークのための確率的シミュレーションアルゴリズム

尤度を調整するような確率的シミュレーションアルゴリズムは、速い結果(確率的ネットワークの事後確率の正確な近似式)が得られる。また、とても大きなネットワークの場合に選択する手法である。残念ながら、ダイナミック確率ネットワーク(DPNs)の特別な特徴は、一時的なプロセスの確率を示すために利用されている。標準的なシミューレションアルゴリズムは、かなり不完全な実行であることを意味する。本質的にシミュレーションの試行は、さらに発散する。そして、プロセスとしてのリアリティからさらに遠く、長い時間をかけて観察される。本論文では、現実の方へ引き返す試行のセットを配信するため、それぞれの時間ステップで観察された証拠を使うシミュレーションアルゴリズムを示す。最初のアルゴリズムとして、「evidence reversal(証拠破棄)」(ER)は、状態変数の原型になる部分の証拠ノードのためのDPNのそれぞれの微小な時間で再構築する。2番目のアルゴリズムとして、「suvival of the fittest」sampling(SOF)と呼ばれている。それぞれの時間ステップの試行セットの「repopulate(再投入)」は、それぞれの試行で一致している証拠の尤度によって、再現確率を使って、率を重くしている。オリジナルネットワーク上の重みづけ尤度のそれぞれのアルゴリズムの性能を比較する。それからERとSOFの結合による恩恵について詳しく調べる。ER/SOFはシミュレーションにおいて時間ステップ数の独立、有界誤差を保持するためのように見える。
ビジュアルトラッキングにおける伝播密度条件

密集したクラッタ(ノイズみたい)のトラッキング曲線問題は、困難である。カルマンフィルタリングは不十分である。理由は、単一ガウス密度ベースのためである。同時に選択する過程を示すことができない。「因子サンプリング」を用いる圧縮アルゴリズムは、静止画像の解釈をするために前もって適用された。つまり解釈する可能性のある確率分布は、不規則に生成されたセットによって示される。圧縮は目視で観察すると同時に、時間とともにランダムセットを伝播するために学習したダイナミカルモデルを使う。結果は、すばやい動きのトラッキングが非常にロバストである。確率的な方法を使っているにもかかわらず、ほとんどリアルタイムで実行する。