新規記事投稿 フォロー記事投稿 記事のキャンセル
From: Akitaka HOSOMI <hosomi@ga2.so-net.ne.jp>
Subject: Re: スタンプ印字された文字の読み取り方法( 試案 )
Date: 1998/08/15 18:05:55
Reference: junge/00140

8月15日に、Katuyuki Yanoさんは書きました。

>>ってな具合に、理想的に学習が進むとは限らないので、困っているのさ、PC の場合は。
>
>理想的に学習が進む必要はないと考えるのが私の考えだす〜。
>ようは望む方向へ学習が進めばよいだす〜。


望む方向へ学習が進むということが、理想的に学習が進むってことじゃないのかいな?



>でも PC では理想的になってないと、お困りになるでしょう〜。
>だから PC のほうも理想的になってなくても困らないように、
>想定している理想に近ければいいんじゃない?ってなお考えで動けるといいんですけどね〜。


無駄とか冗長性なんてのは、今の時代では、作る側が初めから嫌ってることも多いよなぁ。
こういう↑ものを積極的に認めて活用する科学なんてものに到達した頃には、PC は、一体、
どうなってるのだろうか。ちと、見てみたい気もする。



>ノイマン型以外のコンピュータが発達してれば少しは違ったかな〜。


さぁねぇ、今の時代では、まだまだ、Chip として機能するのみだったりして。
なかなか、ヒトにやさしい PC にはなれないように思う。




>># 一応、学習が終わったネットワークが最適( 効率的 )かどうか? ってな問題は、まだ、
>># 解決されてないんじゃないかな?
>
>現状では最適である必要性はあんまりないと思うんですけどね〜。
>感覚の伝達素子の模倣が目的でしょうから。
>
>#学習していることが重要なんでしょう・・・多分。
>
>まだまだ思考の方のネットワークを模倣する段階までいってないでしょう?
>
>ニューラルネットワークの研究ってのは、
>人間?の感覚・思考の構造を知るための模倣による証明でしょう〜。
>
>#なんか本にそれらしきことが書いてあった覚えが・・・。


あんまり、生体の模倣という観点からは見ない方が良いのではなかろうか?

# ハードウェア並みに正確に機能する神経細胞なんてないだろうし .....

これはこれで、道具として使える一つの独立した系なのさ。




>>鈍足な情報伝達速度であるにも関わらず、巨大なネットワークを使って処理を並列に動か
>>せるので、膨大なデータ量でも、それなりに大丈夫なんだろうなぁ。そのようなネットワ
>>ークが自然に形成されるところが羨ましい。
>
>人間は数を使って、さらに並列かつ連続的?に処理してますけど、
>認識時には少量にされてると考えるのが普通です〜。
>
>そうでないと脳(シナプス)がオーバーヒート起こしますし、
>人間の感覚の全ての情報量ってば想像以上のものがあるはずだし。


ってのは、実際には、どうなんだろうか?( 誰も確かめていなかったりする )

# 脳内のネットワーク全体のトラフィックからすれば、入ってくる情報量なんて、圧倒的に
# 少なかったりするかも知れないし、感覚細胞よりもニューロンの数の方が、比較にならな
# いぐらいに多いだろうから、情報処理の結果も、それほど、単純な形にまとめられたりは
# しないのかも知れない。




>一つの感覚が麻痺すると他の感覚が発達するとされるのは、
>大元の情報を一つの感覚分たくさん処理できるようになるので、
>多くの情報を認識できるようになると考えてもおかしくないでしょう?
>
>またも個人的な意見ですね〜。


普段は情報処理を適当にサボっても良いぐらいに、余裕で安定している系だっちゅうことだ。




>>当たり。その場合、文字の特徴量として、なるべく独立な値が得られるように量子化で
>>きれば、完璧でしょう( 文字の種類が限られるので、なんとかなるんじゃないかな )。
>
>う〜ん、各文字の量子化後データを比較してみなければなりませんね〜。


まぁ、話が迷走( 瞑想 )しておるのだが、元ネタは、そういうこと〜〜。

ニ値像については、互いに独立な自己相関パターンが存在するので、多値像についても
似たようなことができるんじゃないか?と考えて、あまり心配してないんだけどね。




>>一言でいうと、もっともらしさ、という指標でござりまする〜。
>
>らしさ?
>そういうものを数式に直せるのだすか?
>数学というのは奥が深くて困りもんですね〜。


# 特に奥が深いわけでもなくて、現代人が浅過ぎるのだ。

英 : likelihood ( 尤度 )と呼ばれてますが、英語の方が、直観的だろ?




>>統計的推定ってのは、たいへんなところまで到達してて、帰還回路のパラメータ設計など
>>も、尤度を使って確率過程を基盤にして求める方法があるそうな( ひぇ〜〜〜 )。
>>
>>実際、ニューラルネットの重み係数なんかも、尤度を使って学習させる方法があるし。
>>( 計算に時間がかかるそうなんだけどね )
>
>そういえば学生時代の恩師かもしれないハゲ親父が、
>そんな研究してるって文書を見た記憶もあるような・・・・・。
>あるいは、実験実習のときの帰還回路のパラメータ設計の計算の解説で、
>尤度とかいう文字をみたんだったかな??
>
>#いまいち身についてませんね〜、というより既に昔話かな?


時間のある時にでも、検索エンジンで、'尤度' とか '最尤法' で引いてごらん。
既に、道具として日常的に使われていたりもするので、ビックリだよ〜ん。




>># 二乗誤差を使う微分学習なんてのは、もう古いんじゃないのかな。
>
>もう古いというか、初期の学習方法の案でがしょ?
>「学習とはなんなのか」という基本だと思いますよ。


誤差の逆伝播に使われる最急降下なんてのは、近場を見て、こっちだ ! と決める単純な
学習方法だから、初期値に左右されやすく、自ら妙なポテンシャルの穴に落ち込んで、
ハイ、それまでよ、ってなことも多いのさ。

つまり、思い込み学習とも言えるもので、当初望んだ、妥当な学習の収束状態が得られる
とは限らない。一見、まともに見えても、今までは、偶然、まともな行動をしていただけ、
という、よくある話が実際に起こってしまう。

これらをある程度なんとかしようってんで、いろいろな評価基準を使った学習方法が出て
きたんじゃないの?


# 直観的に取っ付きやすいので、これが基本だ ! と、老人たちが教えてるのさ。