約 468,696 件
https://w.atwiki.jp/javadsge/pages/4146.html
(1)表 (2)プログラム プログラム (3)グラフ グラフ (4)出所 Javascriptで正規分布の実装まとめ (5)メモ 乱数 (6)作業記録 3月2日 ページ作成 imageプラグインエラー ご指定のURLはサポートしていません。png, jpg, gif などの画像URLを指定してください。 -
https://w.atwiki.jp/suffix/pages/346.html
ガウス分布とも呼ばれ、二項分布の近似として発見された確率分布。 で表される。 は平均、は分散を表す。 正規分布はx=uを境に左右対称であるので、 峰の部分uが概ね正規分布の平均であり、uにおける峰の高さから 分散値を求めることができる。 また、領域に属するかどうか分からない変数(確率変数x)があり、それがに従うときは の値に近いほど、その領域に含まれる確率が高くなる。
https://w.atwiki.jp/wuri/pages/191.html
ぴよ確率モデル計算 Wesnothは囲碁や将棋などとは異なり、確率によって結果が大きく左右されるゲームである。このような確率事象を対象とした場合に我々が心がけるべき事柄や考え方は、心理研究として前稿までに既に議論した(1,2,3)。しかしながら実際には、多くの人間にとって、複雑な確率過程の結果を直感的に理解することは困難である。Wesnothに特有の確率現象についての知見を深めることは、技術的な側面のみならず精神衛生上も有益であると考えられる。そこで本稿では計算機によるシミュレーションによって複雑な確率分布を求め、その結果を例示することにした。これにより、実際の試合で不幸な現象(ぴよ事象)がどのくらいの頻度で生じるかの把握が容易となり、また、時には直感に反する現象が存在することが明らかになった。 事例1 暗黒僧による攻撃の失敗率を題材としたぴよ現象の発生頻度の計算 はじめに 暗黒僧は一度に2回の魔法攻撃(常に命中70%)を放つ。1体の暗黒僧の攻撃が2発とも外れる確率は9%であり、2体が連続で(4回連続で)外れる確率は0.81%である。しかしながら1試合トータルで、そのような不幸な現象(ぴよ現象)がどの程度起こりそうかということを見積もることは難しい。その見積もりが存在しないまま試合を行い、こうしたぴよ現象が数回起こったとして、それがしばしば起りうることなのかどうかは判断できまい。しかし暗黒僧が4連続で外すと悲しいことは間違いなく、多くの人間はそのような風景に出くわしただけで、ぴよだぴよだと騒ぎがちである。そこでここでは、このようなぴよ現象が1試合単位でどの程度起こりうるかを計算機シミュレーションにより示すことにした。 方法 暗黒僧による攻撃の成否は確率事象である。計算機上でこの確率試行を行うために、一様乱数を用いた。すなわち0~1までの数を等確率で返すような乱数表を用い、出力された数が0.3以上であれば命中、0.3未満であれば回避とした。このような施行を繰り返し、ぴよ現象の確率分布を算出した。 結果 1) 2回連続回避の発生頻度分布 1試合の間に行われた暗黒僧による攻撃の総数をnとし、攻撃が2回連続で外れる事象をぴよ事象、1試合の間にぴよ事象が何回起こるかをぴよ回数と定義する。このような試合を1000回行い、ぴよ回数が0回、1回、2回・・・生じるような試合がそれぞれどれぐらいの割合で生じるかの確率分布を求めた。Fig. 1に、nを20,40,100としたときの分布を示す。 n=20とは1試合で20回(暗黒僧10体)が攻撃を仕掛けたことを示しており、速攻などによる短期戦を模している。1体の暗黒僧が2回とも外す確率は9%であることから、10体の暗黒僧侶がいたときに、2回とも外す暗黒僧は単純な期待値計算では0.9匹存在することになる。Fig. 1左図ではまさに、ぴよ回数1回が最頻値となっており、期待値通りの結果となっている。加えて、図からは少なからぬ確率で2発とも外す暗黒僧が2体、3体現れるということがわかる。n=40, n=100の場合も同様に、ぴよ回数は期待値を中心として大きく分布しているのがわかる。このような分布の情報は、期待値からは算出できず、豊富な経験を有するプレイヤー以外にとっては直感的に把握するのは困難であるが、計算機シミュレーションの援用により、Fig. 1のように可視化できるようになった。 (クリックで拡大) Fig. 1 2回連続回避が1試合に何度ぐらい起こるかの確率分布 ぴよ回数=1試合の間に、暗黒僧の攻撃が2連続で外れる事象が何度起こったか n:1試合の間に暗黒僧の攻撃が何度あったか 2) 4回連続回避の発生頻度分布 次に、4回連続で攻撃がはずれることをぴよ事象と定義し、同様に計算機シミュレーションを行った。結果をFig. 2に示す。n=20(暗黒僧10体)の場合、ぴよ事象が起こる確率は8%程度となった。暗黒僧2体が全ての攻撃を外す確率は0.3^4で0.81%である。10体の暗黒僧がいたとして、ぴよ事象が起こる期待値は単純に0.81%の5倍(暗黒僧の数が5倍になるから)としがちである(筆者も計算をするまえはそうだと勘違いしていた)。しかし実際には以下のような確率計算が必要となる。まず10体の暗黒僧のうち2体が全部外す確率は、10C2 * (0.91)^8 * (0.09)^2 =0.17で、全部はずしやがった2体の暗黒僧がとなりどうしになる確率が9!*2 / 10!=0.2なので、これらをかけあわせて0.85が理論的な解である。計算機シミュレーションの結果は理論値と概ね合致する。nが増えれば増えるほど、このようにして求めた理論値は0.81%×nからは乖離してゆく。実際n=40(中期戦相当)では5試合に1回ぐらいはぴよが起こり、n=100程度の長期戦ともなると、ぴよが一度も起こらない試合は全体の6割弱で、それ以外は一度以上のぴよが起こるということがFig. 2からわかる。4回連続外しは、WURIにおいてもぴよの象徴のように扱われているのだが(参考)、実際にはそれほど珍しくない(長期戦をやると5回に2回ぐらいはお目にかかる)ものであるということが明らかになった。 (クリックで拡大) Fig. 2 4回連続回避が1試合に何度ぐらい起こるかの確率分布 ぴよ回数=1試合の間に、暗黒僧の攻撃が4連続で外れる事象が何度起こったか n:1試合の間に暗黒僧の攻撃が何度あったか 事例2 統計情報(与えたダメージ、受けたダメージと期待値との差)についての計算 はじめに ゲーム中に統計情報のメニューを開くことで、与えたダメージ(以下与ダメ)と受けたダメージ(以下被ダメ)の総和や、期待値との差を参照することができる。 この統計量はいわゆる「ついてなさ」の指標として用いられる。このような統計量は、試合開始直後は大きく変動しやすいが、試合が進み総ダメージ数が大きくなるほど、期待値に漸近することが良く知られている(大数の法則)。しかしながら、期待値からのずれがどの程度の幅を持ち、試合の進行とともにその幅がどのように推移していくかを直感的に把握するのは、事例1の場合よりもさらに困難である。そこで与ダメや被ダメと期待値との差がどのような分布に従うかを、計算機シミュレーションによって求めた。 方法 事例1と同様に暗黒僧が攻撃した場合の攻撃の成否を、乱数を用いて表現した。暗黒僧による攻撃回数をnとし、n回攻撃した場合に成功した回数が、期待値(n*0.7)とどれだけ異なるかを算出した。このような試行を1000回行い、期待値との差がどのような分布を示すかを求めた。これを2回行い、便宜的に片方を与ダメの期待値との差の分布、もう片方を被ダメの期待値との差の分布とした。(両者とも全てのユニットは暗黒僧であると仮定し、攻撃の命中率は70%とした) また、これらを用いて、(与ダメ―被ダメ)の期待値との差の分布を算出した。 結果 ダメージの期待値との差が従う分布の形状 上述のような試行は一次元のランダムウォーク(参考)と等価であると考えられる。一次元のランダムウォークは正規分布に従うことが知られている。n=10,20,40,80の場合にシミュレーションによって得られた分布をFig. 3に示した。分布のばらつきが持つ幅の指標として、標準偏差(SD)を算出し、併記した。 n=10の場合に着目すると、与ダメと被ダメはそれぞれSD=14(%)程度となっている。分布が正規分布に従う場合、±1*SDの範囲に、全標本の約70%が含まれ、±2*SDの範囲に約95%が含まれることが知られている(参考)。すなわち10回攻撃時(暗黒僧5体分)に与ダメが+28%を越えるばかづきや-28%を超えるぴよが起こるのは、100試合やって5試合程度ということである。また被ダメについても同様の頻度で、ばかづきやぴよが起こる。一方で、(与ダメ―被ダメ)の期待値との差の分布(黒)の標準偏差は、与ダメや被ダメ単体の場合より大きくなる。正規分布の加法性により黒の分布の標準偏差は、与ダメの分布(赤)と被ダメの分布(青)の標準偏差σを用いて(σ赤^2 + σ青^2)^(1/2)と求められるが、得られた値はこれによく合致する。n=10では彼我の期待値からのずれの差が20%以上(たとえば被ダメが+15%で与ダメが-5%、など)となるのは全体の3割に上るということがわかる。 n=20,40,80と攻撃総数がふえるほど、SDは小さくなる。分布が正規分布に従う場合、その標準偏差は標本数nの平方の逆数に比例することが知られている。Fig. 3においても、nが4倍になると標準偏差が半分となっているのが確認できる。すなわち、大数の法則により試行数が大きくなればなるほど、確率分布の幅は小さくなることが確認された。すなわち試行の期待値との差(%)は、試合の序盤ではばらつきが大きく、試合が進むにつればらつきが小さくなるということである。 また、このシミュレーション結果は、暗黒僧以外のユニットに対して拡張することが可能である。分布の形状は、攻撃ユニットの命中率を変化させても(たとえば命中率を70%ではなく50%や30%としても)ほぼ変化しなかった(data not shown)。従ってFig. 3の結果はたとえばオーク兵卒に対してもそのまま当てはめることが可能である。またユニット1体あたりの攻撃回数が2とは異なる場合にも拡張が可能である。たとえばエルフ戦士の近接攻撃を考えたい場合は、ユニット数5の場合に攻撃総数n=20となるだけである。このことは、攻撃回数の多いユニットほど結果のばらつきが 比較的 小さくなるということを意味している。ここで 比較的 と言っているのは、 試合の進行度が同程度のときに攻撃回数の小さいユニットと比較すると という意味であり、数回のみの攻撃を考えた場合には、依然として相応のばらつきが存在することを付記しておく。 Fig. 3 n回の試行時に、結果と期待値の乖離が従う分布(クリックで拡大) 独立に2回の試行を行い、赤は与ダメと期待値との差、青は被ダメと期待値との差を便宜的に表している。 これらの2者から、(与ダメ―被ダメ)の期待値との差の分布(黒)を求めた。 考察 割合と絶対値の問題 前節により、試行の期待値との差(%)は大数の法則に従い、序盤ほどばらつきが大きくなるということが示された。一方でWesnothにおいては、ダメージの割合ではなく総量こそが、戦況の優劣の指標として適しているとする見方が存在する。たとえば彼我の収入が常に同一であり、ユニットの種類も同一であると簡略化した場合に、戦況の優劣を倒し倒され数で表現することにする。今、一方がもう一方よりも2匹多く倒されてしまった場合を考える。このような条件を満たす場合として、中期戦ではたとえば10vs12、長期戦ではたとえば20vs22になったとする。この場合両者とも、マップ上のユニット数の差は2であるが、倒されたユニット数を割合で表示すると中期戦では2割の差、長期戦の場合は1割の差となる。しかしながら戦況にもよるが、多くの場合場合に優劣を決めるのは、マップ上のユニット数の差(絶対値)であろう。なぜなら、戦闘によって彼我のユニットが倒されて減少することを考慮すると、中期戦でも長期戦でも、マップ上のユニット総数は概ね似通っていると考えられるからである。その場合には、累計の倒し倒され数によって平滑化された 割合 (10分の2だと2割で、20分の2だと1割だとする算出方法)よりも、絶対値である 2 という情報のほうが、戦況の優劣を示す基準としては適していると考えられる。 ※無論不適切な場合も存在するだろう。事例により個々に判断されたし。 このように、しばしば統計情報の期待値との差の割合(%)よりも、絶対値に着目する必要がある。そこで以下では、Fig. 3の結果を、絶対値という観点に着目して議論する。今、暗黒僧の攻撃は全て耐性±0%の相手に、中立時刻に行ったものであるという簡略化を行う。この場合、1回の攻撃で与えるダメージは10である。このことから(与ダメ―被ダメ)の期待値との差の分布(黒)より得られた標準偏差(%)にダメージ量(10*n)を乗じ、攻撃回数nが様々な場合のダメージ量のばらつきを算出すると、それぞれ約20(n=10)、28(n=20)、40(n=40)、56(n=80)となり、試合が長くなるほど運によるダメージ量の差の総和は大きくなることが示された。 しかしながらこの考察は、試合が短くなればなるほど運による影響が小さくなるという結論を導き出すものではない。なぜなら、序盤であればあるほど、結果の偏りが少数のユニットに集約されるという効果が生じるからである。このような効果をも考慮して本節で論じた内容をまとめると「試合の序盤はばらつきが大きくなるが、中盤以降においては、ダメージの総量に着目するとばらつきが小さくなってゆくとはいえない」となる。 まとめ 上述のように、計算機シミュレーションにより、直感的に把握するのは難しいような複雑な確率過程を含む、1試合を単位とした確率分布を示すことができた。また、時には直感に反する現象が存在することが明らかとなった。本稿によってぴよ現象を正しく認識し、ひいてはそれがぴよ事象に直面してもめげずに研鑽を続ける助けとなれば幸いである。
https://w.atwiki.jp/hks2/pages/22.html
# 各変数の分布の検討 .gcm - gcmstr[gcmstr$use, c("AGE","AGEG","SEX","FOL_MON","FOL_DAY","FOL_DAY2","OPEY","EVENT", "HEIGHTS","WEIGHT","BMI", "ALIVE5")] # 患者背景 lapply(.gcm[,c("AGE","AGEG","SEX","HEIGHTS","WEIGHT","BMI","OPEY")], summary) lapply(.gcm[,c("AGE","HEIGHTS","WEIGHT","BMI")], sd, na.rm=T) par(mfrow=c(2,2)) lapply(.gcm[,c("AGE","HEIGHTS","WEIGHT","BMI")], hist) splom(~ .gcm[c("AGE","HEIGHTS","WEIGHT","BMI")]) # 患者背景(年代ごと) .res -by(.gcm, .gcm$OPEY, FUN=function(data1) { list( lapply(data1[,c("AGE","AGEG","SEX","HEIGHTS","WEIGHT","BMI")], summary), lapply(data1[,c("AGE","HEIGHTS","WEIGHT","BMI")], sd, na.rm=T) ) }) print(.res) require(lattice) histogram(~AGE | OPEY, .gcm) histogram(~HEIGHTS | OPEY, .gcm) histogram(~WEIGHT | OPEY, .gcm) histogram(~BMI | OPEY, .gcm) splom(~ .gcm[c("AGE","HEIGHTS","WEIGHT","BMI")] | OPEY, data=.gcm) # 生存時間 lapply(.gcm[,c("FOL_MON","FOL_DAY","FOL_DAY2")], summary) lapply(.gcm[,c("FOL_MON","FOL_DAY","FOL_DAY2")], hist) hist(log(.gcm$FOL_DAY)) hist(log(.gcm$FOL_DAY2)) # 生存時間(年代ごと) histogram(~log(FOL_DAY) | OPEY, data=.gcm) histogram(~log(FOL_DAY2) | OPEY, data=.gcm) 癌研胃癌データベース
https://w.atwiki.jp/rmemo/pages/10.html
統計学への誘い 記述統計の基礎統計データ 度数分布 ローレンツ順序付け 分布の特性値統計データの中心 統計データのばらつき 階級値を利用する平均と分散 分位点と箱形図 その他の特性値 記述統計の発展的事項同時度数分布と相関係数 回帰と関数関係最小二乗法 回帰直線の性質? 直線のあてはまりの良さ? 関数関係と直交回帰? 非線形回帰? 時系列の記述統計移動平均と季節調整? 系列相関と自己相関係数? トレンドと循環変動? さまざまな経済時系列指数? 確率の基礎確率とは 確率の規則と解釈 条件付き確率と独立性 確率分布と標本分布確率変数と確率分布 確率分布の特性値 多変数の確率分布 有限母集団と標本調査 標本分布 統計的推測統計的推測の問題とは? 点推定 空間推定 仮説選定 計量経済分布の基礎回帰モデルによる分布法 計量経済モデルによる分析法 時系列モデルによる分析法
https://w.atwiki.jp/1007k/pages/4360.html
削除
https://w.atwiki.jp/novpat/pages/34.html
機械学習最尤推定法 ベイズ推定法 MAP推定法(最大事後確率推定法) ノンパラメトリック法 決定理論誤認識率最小化法 期待損失最小化法 棄却オプション 統計学 ベイズ統計学ベイズ推論の概要 ベイズの定理 パターン認識への3つのアプローチ 決定理論 最尤推定法最尤推定法の概要 確率モデル 情報理論情報量 エントロピー カルバックライブラー情報量 機械学習 学習データセットから確率分布を推定することを機械学習という。とくに、単一データからなる学習データセットから確率分布を推定することを教師なし学習といい、二つ(以上)のデータからなる学習データセットから結合分布もしくは条件付き分布を推定することを教師あり学習という。 無作為抽出されたサンプル集団から元の確率分布を推定することになるので、機械学習は推測統計学と関係が深い。実際、機械学習で使う技法の多くは推測統計学のものである。 機械学習には、大きく分けてパラメトリックなアプローチとノンパラメトリックなアプローチとがある。パラメトリックなアプローチでは、確率分布関数を一次独立な関数の線型(非線型)結合によって表現し、そのパラメーターを推定する。一方、ノンパラメトリックなアプローチでは、データ集合から直接に目的の確率を計算する。 最尤推定法 パラメトリックなアプローチにおいて、もっともポピュラーかつ古典的な推定法が最尤推定法である。変数の確率分布が、パラメーターを用いて条件付き確率であらわされるとき、尤度関数を最大化するを推定値とする: 。 実用的には尤度関数を直接最大化するのではなく、対数尤度関数を最大化することが多い。対数をとることで、 となり、解析的な取り扱いが容易となるためだ。とくに、確率分布が指数関数族であらわされる場合は右辺が多項式になるので、解析的にとなるを求めることができる。 ベイズ推定法 パラメトリックなアプローチにおいて、本来、定数であるはずのモデルパラメーターに不確実性があることをみとめ、その不確実性をも評価する推定法がベイズ推定法である。モデルの不確実性は(ベイズ)確率によって定量的に表現する。古典的な確率論の立場では、確率は客観的な頻度としてしか解釈されないので、定数であるモデルパラメーターに確率を定義することはできない。そのため、ベイズ主義者のなかでしか認められていない推定法である。 ベイズ推定法では、まず、データセットから確率分布を求める。次に、これをパラメーターについて周辺化することで、を推定する: 。 ベイズ推定法の利点としては、次のものが挙げられる。 モデルの複雑度が高い場合でも、オーバーフィッティング(モデルパラメーターの過適応)を避けることができる。 逐次的な学習が容易に導入できる。今、モデルパラメーターの確率分布が既知であるとする(事前確率)。ここで、新しい情報が得られたとすると、ベイズの定理より、と更新できる(事後確率)。さらに、新しい情報を得られたとすると、と更新できる。これより、帰納的にが学習できる。 MAP推定法(最大事後確率推定法) 最尤推定法とベイズ推定法の中間に位置する推定法である。ベイズ推定法と同様に、モデルパラメーターに不確実性があることを認めている。 MAP推定法では、ベイズ推定法のようにパラメーターについて周辺化するのではなく、確率分布を最大化するを推定値とする: 。 は、に関する情報が得られる前からわかっている確率分布だから、事前確率分布とよぶ。一方、は、に関する情報が得られた後の確率分布だから、事後確率分布と呼ぶ。事前確率を事後確率に変換するために必要なは尤度関数である。 ノンパラメトリック法 決定理論 誤認識率最小化法 期待損失最小化法 棄却オプション 統計学 無作為抽出されたサンプル集団から母集団の確率分布を推定する方法論が統計学である。 確率分布の推定方法には、大きく分けてパラメトリックモデルとノンパラメトリックモデルがある。パラメトリックモデルは、確率分布を関数の線型(非線型)結合によって表現し、そのパラメーターを推定することで、確率分布の推定をおこなう。一方、ノンパラメトリックモデルは、今現在得られているデータ集合から目的の確率分布を計算する。 パターン認識や回帰分析は、目的変数と従属変数の結合分布もしくは条件付き分布を推定することと言い換えることもできる。 ベイズ統計学 ベイズ推論の概要 ベイズ推論とは、確率の加法定理や乗法定理を過不足なく用いて(未知)変数の確率分布を推論することである。従来の方式(未知変数の不確実性を無視し一つの推定値を求めていた)とは異なり、すべての可能性を保持・評価するため、 ベイズの定理を用いることで、逐次的な学習(確率分布の更新)が自然に導入できる。今、目的変数の確率分布が既知であるとする(事前確率)。ここで、新しい情報が得られたとすると、ベイズの定理より、と更新できる(事後確率)。さらに、新しい情報を得られたとすると、と更新できる。ただし、逐次的に得られる情報が独立であると仮定できる場合は(ほとんどの例でできる)、である。これをナイーブベイズ識別器という。最尤推定法でも、Robbins-Monroアルゴリズムを用いれば、逐次的な学習は可能であるが、収束スケジュールの調整など技巧的なテクニックを必要とする。 期待値を推定値とすることで、学習時に含まれる誤差(外れ値)の影響を少なくできる。 決定理論と組み合わせることで、最適な意志決定(事後確率の最大化 or 期待損失の最小化)ができる。 棄却オプションを利用できる。 確率モデル(独立に学習した結果)の結合が容易である。 というメリットがある。 ベイズ推論をおこなおうとすると、客観確率(頻度としての確率)に加えて主観確率(不確実性の尺度としての確率)をも確率として認める必要がでてくる。というのも、ベイズ推論にしたがえば、頻度の定義できない変数にも確率分布が定義できてしまうためである。たとえば、正規分布にしたがって生成された乱数列から元の正規分布の平均を推定することを考える。このとき、は間違いなく定数であり確率(頻度)を伴う変数ではない。しかし、ベイズ推論にしたがうと、の確率分布を求める(考える)ことになる。確率を不確実性の尺度として理解することで、この矛盾が解消できるのである。 ベイズの定理 ベイズ推論では、未知変数の確率分布を求めようとする。そのため、確率分布の更新を可能とするベイズの定理: は大きな意味をもつ。は確率変数である。確率分布を事前確率, を事後確率とよぶ。は、という情報を得る前にわかっている確率分布だから事前確率であり、はという情報を得た後にわかる確率分布だから事後確率である。ベイズの定理によれば、事後確率は、事前確率に尤度関数を掛けることで得ることができる。 パターン認識への3つのアプローチ 生成モデル |を入力変数、を目的変数とする。結合分布をモデル化し、決定理論を用いることでの最適値を決定する。このモデルの最大の特徴は、サンプリング法によって人工の入力列を生成できる点にある。これによって学習データの不足領域が明らかになる。入力変数の確率分布までも求めなければならないため、3つのアプローチのなかで最も手間がかかる。特に入出力空間が大きい場合は、パラメトリック学習を用いないと安定した識別器を得ることは難しい。 識別モデル |事後確率を直接モデル化する。推論と意思決定だけが問題である場合、識別モデルで十分である。 識別関数モデル |識別関数の関数形を直接モデル化する。このとき、学習の対象は関数のパラメーターとなる。このアプローチは、他の2つの方法と異なり、入力変数や出力変数の確率分布を考慮しない。そのため、ベイズ推論をおこなうメリットのうち、2.〜5.は使えない。しかし、一度学習さえ完了すれば、意思決定は高速にできるので、音声認識などの実時間処理をしたいシステムに向いている。誤差逆伝搬法やSVMは、ノンパラメトリックな識別関数の学習法の一種である。 決定理論 ベイズ推論によって得られた確率分布から最適な意思決定(行動決定)するための方法論が決定理論である。入力ベクトルをとすると、入力空間のすべてに最適なクラスを割り当てることが目標となる。以後の説明では、結合確率は既知とする。クラスの決定領域(クラスに割り当てられたの集合)はで表す。 ベイズ決定則(事後確率最大化法) |事後確率は、という乗法が与えられたとき、クラスがとなる確率を表しているが、クラスがで正しい確率と読み替えることもできる。このように読み替えると、決定領域が正しい識別結果を返却する確率はによって表すことができる。この確率を最大化するように決定領域を設定したい。その方法は、上式より明らかに、事後確率を最大にするクラスへ分類することだ。 期待損失最小化 |入力にクラスを割り当てたときの期待損失(損失の期待値)を考える。損失はと思っていたものが 期待値 |目的変数が実数ならば・・・ 棄却オプション | 最尤推定法 最尤推定法の概要 ベイズ推論とは異なり、頻度主義にもとづく推定法である。 確率モデル 情報理論 情報量 エントロピー 期待できる情報量。驚きの期待値。分布の一様性を定量的に表したもの。 カルバックライブラー情報量
https://w.atwiki.jp/cwskill/pages/431.html
this_page プラグインエラー エラー Access-time 2021-12-08 05 06 08 (Wed) 以下に確率分岐が実際にどの程度の率で分岐するかを記述する。 確率分岐 調査結果 その他調査結果 三分岐(再帰なし) 三分岐(再帰あり) 六分岐(再帰なし) 六分岐(再帰あり) 確率分岐 確率分岐は設定した値+1の確率で実際には分岐しているようである。 最新版では修正されているので、現在は考慮する必要は無い。 調査結果 試行回数1,000,000回 確率 成否 回数 49% 成功 500325 失敗 499675 50% 成功 510525 510032 失敗 489475 489968 + 1〜10%,91〜99%での調査結果 1〜10%,91〜99%での調査結果 試行回数1,000,000回 確率 成否 回数 確率 成否 回数 1% 成功 19,855 91% 成功 911971 失敗 980,145 失敗 88029 2% 成功 29,845 92% 成功 923407 失敗 970,155 失敗 076593 3% 成功 39870 93% 成功 934199 失敗 960130 失敗 65801 4% 成功 50189 94% 成功 945626 失敗 949811 失敗 54374 5% 成功 60407 95% 成功 955617 失敗 939593 失敗 44383 6% 成功 69802 96% 成功 967197 失敗 930198 失敗 32803 7% 成功 79639 97% 成功 978188 失敗 920361 失敗 21812 8% 成功 90055 98% 成功 989202 失敗 909945 失敗 10798 9% 成功 99899 99% 成功 1,000,000 失敗 900101 失敗 0 10% 成功 120513 失敗 979486 その他調査結果 三分岐させる場合、33%分岐と49%分岐を組み合わせるものは33%成功-49%成功に少し回数が偏ってしまう。 49%分岐を二回使い49%成功-49%失敗、49%失敗-49%失敗では確率分岐を再び行い、他の分岐が選ばれるまで繰り返すものでは回数の偏りがほぼ無くなっている。 三分岐(再帰なし) 試行回数1,000,000回 分岐 回数 33%成功 339303 33%失敗 49%成功 330144 49%失敗 330553 三分岐(再帰あり) 試行回数1,000,000回 分岐 回数 49%成功 49%成功 333796 49%失敗 333182 49%失敗 49%成功 333022 49%失敗 再帰 六分岐(再帰なし) 試行回数1,000,000回 分岐 一回目 二回目 49%成功 33%成功 170498 164407 33%失敗 49%成功 165037 167666 49%失敗 164441 167819 49%失敗 33%成功 169464 164979 33%失敗 49%成功 165078 167568 49%失敗 165482 167561 六分岐(再帰あり) 試行回数1,000,000回 分岐 回数 49%成功 49%成功 49%成功 166044 49%失敗 166489 49%失敗 49%成功 166790 49%失敗 再帰 49%失敗 49%成功 49%成功 166834 49%失敗 166580 49%失敗 49%成功 167263 49%失敗 再帰
https://w.atwiki.jp/hmiku/pages/17085.html
にこうぶんぷのうた【登録タグ に りくのら ニコニコ外公開曲 初音ミク 曲】 作詞:りくのら 作曲:りくのら 編曲:りくのら 唄:初音ミク 曲紹介 統計を学ぶための覚え歌です。内容については、こちらのサイトをご覧ください。【ミクの歌って覚える統計入門】http //miku.motion.ne.jp/ ピアプロの投稿者コメントより転記 歌詞 (ピアプロより転載) 二項分布はコンビネーションnからx Px乗1マイナスPn引くx乗 平均はnP 分散nP1引くP 二項係数並べて書けばパスカルの三角形 確率うんと小さくしたならポアソン分布 平均と分散が等しくなるの 試行回数大きくしたなら正規分布 スターリングの公式使って確かめてみて ね コメント 名前 コメント
https://w.atwiki.jp/tkonishi73/pages/362.html
2.12 ベルヌーイ試行と2項分布 ○ベルヌーイ(Bernoulli)試行 1回の実験で2つの結果しか起こらない場合。 2つの結果:事象(確率)、事象(確率) 条件: この場合に、確率を変えないままで実験を繰り返す。 ○順列と組み合わせ 順列(permutation)の数 個の中から個取り出して一列に並べる並べ方 組み合わせ(combination)の数 個の中から個取り出す取り出し方 ●階乗を使うと、順列の数、組み合わせの数は書き表すことができる。 ○硬貨1枚を投げて出る面を確かめる実験をする。 表(、顔)、裏(、尾) 硬貨を2回放る場合、生じる場合は4通り() の出る確率を、の出る確率をとすると、 まとめると、 2回ともHの確率= 1回のみHの確率= 0回のみHの確率= ○一般に、ベルヌーイ試行を回行って、がちょうど回起こる確率は で与えられる。 このような確率分布を、2項分布(Binomial Distriburion)といい、 確率変数は「2項分布に従う」といい、「」とかく。 ○二項分布で試行回数を無限回にした場合が「正規分布」である。 正規分布の話は後日、別の項でする。 第3章 データの尺度・データの図示 ○データの尺度 名義尺度:名称など 順序尺度:大小関係に意味がある。 間隔尺度:差に意味があるが、0に意味が無い 比尺度:倍率、0に意味がある。 ○データの図示 1.離散型の場合 2.連続型の場合