約 2,998,444 件
https://w.atwiki.jp/taigagaga/pages/17.html
キャラページからリンクする際、複数キャラが入っているイラストは このページにアップロードして参照するとスマートじゃないかな、 と思います。 イラスト添付までの手順 1)上部メニュー「編集」→このページにファイルをアップロード 2)キャラの詳細ページに #ref(『アップロード画像ファイル名』,イラスト) と書くと表示出来ます。 サイズが大きくてレイアウトが崩れるような場合には、サムネイル表示を使います。 #image(『画像のURL』,『画像のURL』,width=『サムネイルの幅』,height=『サムネイルの高さ』,page=イラスト) @wiki公式より転載 #image(ここに画像のURL) もしくは #image(ここに同じページにアップロードしたファイル名) と入力することで、指定した画像を表示します また()内にカンマ区切りで以下のパラメーターを指定することで動作を変更できます。 パラメーター 説明 center 画像を中央寄せ left 画像を左寄せ right 画像を右寄せ width=(数字) 画像の幅を指定 height=(数字) 画像の高さを指定 page=(ページ名) ファイル名で画像を貼り付けるとき、指定した別ページのアップロードファイルを利用します title=(文字列) カーソルを合わしたときにポップアップされる文字列 alt=(文字列) 画像の代わりに表示される文字列 (その他追加URL) そのURLへのリンク blank (その他追加URL)とblankを指定すると別ウインドウで追加URLを開きます inline 画像の前後のdivを表示せず、通常のインライン要素として表示します。このパラメーターを記述するとleft,right,center等が効かなくなります #ref(ここに画像のURL) もしくは #ref(『アップロード画像ファイル名』,画像がアップロードされているページ名) と入力することで指定した画像を表示します。 また()内, 区切り3つ目以降 に以下のパラメーターに指定することで動作を変更できます。 パラメーター 説明 center 画像を中央寄せ left 画像を左寄せ right 画像を右寄せ height=(数字) 画像の高さを指定 title=(文字列) カーソルを合わしたときにポップアップされる文字列 alt=(文字列) 画像の代わりに表示される文字列 width=(数字) 画像の幅を指定 height=(数字) 画像の高さを指定 (その他追加URL) 画像指定以降のURLは、記述したURLへのリンクとなります blank (その他追加URL)とblankを指定すると別ウインドウで追加URLを開きます
https://w.atwiki.jp/kidscindy/pages/21.html
直線群という幾何要素GParaLinesを作る。たとえば、グラフ上の点をパラメータとして接線の族であるとか。 基本的に直線の列と言うデータ保持と、式によるデータ保持の二通りを準備する。をする。GParaGraphの直線版という感じか。 直線群に対して包絡線、直線群と交わる点、定直線との交わりが作るパラメトリックグラフ、2つの直線群が共有する直線(これが出来ると、「共通接線」が引ける。)
https://w.atwiki.jp/sherpa2000/pages/72.html
AW下端躯体形状の変更について 出来ません。 下図のように、AWでダキ形状を選択した場合、 下端の躯体からサッシ有効開口までの寸法95mmが変更できなくなっています。 下図はパラメーター画面ですが パラメーターもグレー表示になっているので変更ができません。
https://w.atwiki.jp/beec1e/pages/17.html
Auth logined_mes ログイン時のみメッセージ表示 logined_mes(OPTION){MESSAGE} パラメーター 説明 admin 管理者のみ表示 member メンバーにのみ表示 パラメーターを設定しない場合は管理者及びメンバーに対して表示。 example Content region, endregion 折りたたみ表示 #region(OPTION) + ANY_CONTENTS #endregion パラメーター 説明 open/opened 最初に開いた状態で表示 close/closed 最初に閉じた状態で表示(デフォルト) (文字列) 閉じた状態で表示する文字列を指定 region と endregion で囲まれた内容を折りたたむ。 初期バージョンの綴りミスの影響で closeed でも closed 相当の動作をする。 example + Contents ANY_CONTENTS ANY_CONTENTS k-tai exkp 携帯のみ、PCのみ非表示 #exkp(OPTION){SHOW_ONLY_PLATFORM} パラメーター 説明 k 携帯からのアクセス時に非表示(デフォルト) p PC(パソコン)からのアクセス時に非表示 example Hidden on mobile. exk, pc 携帯のみ非表示(PCのみ表示) exk(){SHOW_ONLY_PC} #exk(){ SHOW_ONLY_PC SHOW_ONLY_PC // multiline } pc(){SHOW_ONLY_PC} #pc(){ SHOW_ONLY_PC SHOW_ONLY_PC // multiline } example SHOW_ONLY_PC SHOW_ONLY_PC SHOW_ONLY_PC // multiline exp, mobile PCのみ非表示(携帯のみ表示) exp(){SHOW_ONLY_MOBILE} #exp(){ SHOW_ONLY_MOBILE SHOW_ONLY_MOBILE // multiline } mobile(){SHOW_ONLY_MOBILE} #mobile(){ SHOW_ONLY_MOBILE SHOW_ONLY_MOBILE // multiline } example
https://w.atwiki.jp/guide/pages/537.html
ユーザ様よりlist_by_searchプラグインで以下のパラメーター追加要望を頂き対応させていただきました。 パラメーター 説明 errmsg=ここにテキスト 検索結果が1件も見つからない場合のエラーメッセージを設定します ではよろしくお願いいたします。
https://w.atwiki.jp/jeskolabuzz/pages/81.html
FSM Kick XP 入手 可 プリセット 無 動作 ノート ヘルプ 有 ソースコード 同梱 パラメーター数 12 ノート入力で動作 パラメーター名 詳細 Start/スタート 鳴り始めの音の高さを指定する End/エンド 鳴り終わりの音の高さを指定する Buzz/バズ 音色の硬さを決める?修正求む Click/クリック Punch/パンチ T Decrate T B Decrate C+P A A Dectime A RelSlope FSM Kickのヴァージョンアップ版。 普通のFSM Kickと違い、ノート指定でも動作する。 他にも、パラメータが増えているため、普通のFSM Kickに比べて、 ベースの代替やスネアの代りなど、いろいろな用途に使用できる。
https://w.atwiki.jp/guide/pages/610.html
ユーザさまよりご指摘いただき、 アスキーアートプラグインで以下の問題の動作調整を行いました。 pukiwikiライクモードで正常利用できない問題 また以下のパラメーターの追加をおこなっております。 パラメーター 説明 blockquote 引用として表示します
https://w.atwiki.jp/novpat/pages/34.html
機械学習最尤推定法 ベイズ推定法 MAP推定法(最大事後確率推定法) ノンパラメトリック法 決定理論誤認識率最小化法 期待損失最小化法 棄却オプション 統計学 ベイズ統計学ベイズ推論の概要 ベイズの定理 パターン認識への3つのアプローチ 決定理論 最尤推定法最尤推定法の概要 確率モデル 情報理論情報量 エントロピー カルバックライブラー情報量 機械学習 学習データセットから確率分布を推定することを機械学習という。とくに、単一データからなる学習データセットから確率分布を推定することを教師なし学習といい、二つ(以上)のデータからなる学習データセットから結合分布もしくは条件付き分布を推定することを教師あり学習という。 無作為抽出されたサンプル集団から元の確率分布を推定することになるので、機械学習は推測統計学と関係が深い。実際、機械学習で使う技法の多くは推測統計学のものである。 機械学習には、大きく分けてパラメトリックなアプローチとノンパラメトリックなアプローチとがある。パラメトリックなアプローチでは、確率分布関数を一次独立な関数の線型(非線型)結合によって表現し、そのパラメーターを推定する。一方、ノンパラメトリックなアプローチでは、データ集合から直接に目的の確率を計算する。 最尤推定法 パラメトリックなアプローチにおいて、もっともポピュラーかつ古典的な推定法が最尤推定法である。変数の確率分布が、パラメーターを用いて条件付き確率であらわされるとき、尤度関数を最大化するを推定値とする: 。 実用的には尤度関数を直接最大化するのではなく、対数尤度関数を最大化することが多い。対数をとることで、 となり、解析的な取り扱いが容易となるためだ。とくに、確率分布が指数関数族であらわされる場合は右辺が多項式になるので、解析的にとなるを求めることができる。 ベイズ推定法 パラメトリックなアプローチにおいて、本来、定数であるはずのモデルパラメーターに不確実性があることをみとめ、その不確実性をも評価する推定法がベイズ推定法である。モデルの不確実性は(ベイズ)確率によって定量的に表現する。古典的な確率論の立場では、確率は客観的な頻度としてしか解釈されないので、定数であるモデルパラメーターに確率を定義することはできない。そのため、ベイズ主義者のなかでしか認められていない推定法である。 ベイズ推定法では、まず、データセットから確率分布を求める。次に、これをパラメーターについて周辺化することで、を推定する: 。 ベイズ推定法の利点としては、次のものが挙げられる。 モデルの複雑度が高い場合でも、オーバーフィッティング(モデルパラメーターの過適応)を避けることができる。 逐次的な学習が容易に導入できる。今、モデルパラメーターの確率分布が既知であるとする(事前確率)。ここで、新しい情報が得られたとすると、ベイズの定理より、と更新できる(事後確率)。さらに、新しい情報を得られたとすると、と更新できる。これより、帰納的にが学習できる。 MAP推定法(最大事後確率推定法) 最尤推定法とベイズ推定法の中間に位置する推定法である。ベイズ推定法と同様に、モデルパラメーターに不確実性があることを認めている。 MAP推定法では、ベイズ推定法のようにパラメーターについて周辺化するのではなく、確率分布を最大化するを推定値とする: 。 は、に関する情報が得られる前からわかっている確率分布だから、事前確率分布とよぶ。一方、は、に関する情報が得られた後の確率分布だから、事後確率分布と呼ぶ。事前確率を事後確率に変換するために必要なは尤度関数である。 ノンパラメトリック法 決定理論 誤認識率最小化法 期待損失最小化法 棄却オプション 統計学 無作為抽出されたサンプル集団から母集団の確率分布を推定する方法論が統計学である。 確率分布の推定方法には、大きく分けてパラメトリックモデルとノンパラメトリックモデルがある。パラメトリックモデルは、確率分布を関数の線型(非線型)結合によって表現し、そのパラメーターを推定することで、確率分布の推定をおこなう。一方、ノンパラメトリックモデルは、今現在得られているデータ集合から目的の確率分布を計算する。 パターン認識や回帰分析は、目的変数と従属変数の結合分布もしくは条件付き分布を推定することと言い換えることもできる。 ベイズ統計学 ベイズ推論の概要 ベイズ推論とは、確率の加法定理や乗法定理を過不足なく用いて(未知)変数の確率分布を推論することである。従来の方式(未知変数の不確実性を無視し一つの推定値を求めていた)とは異なり、すべての可能性を保持・評価するため、 ベイズの定理を用いることで、逐次的な学習(確率分布の更新)が自然に導入できる。今、目的変数の確率分布が既知であるとする(事前確率)。ここで、新しい情報が得られたとすると、ベイズの定理より、と更新できる(事後確率)。さらに、新しい情報を得られたとすると、と更新できる。ただし、逐次的に得られる情報が独立であると仮定できる場合は(ほとんどの例でできる)、である。これをナイーブベイズ識別器という。最尤推定法でも、Robbins-Monroアルゴリズムを用いれば、逐次的な学習は可能であるが、収束スケジュールの調整など技巧的なテクニックを必要とする。 期待値を推定値とすることで、学習時に含まれる誤差(外れ値)の影響を少なくできる。 決定理論と組み合わせることで、最適な意志決定(事後確率の最大化 or 期待損失の最小化)ができる。 棄却オプションを利用できる。 確率モデル(独立に学習した結果)の結合が容易である。 というメリットがある。 ベイズ推論をおこなおうとすると、客観確率(頻度としての確率)に加えて主観確率(不確実性の尺度としての確率)をも確率として認める必要がでてくる。というのも、ベイズ推論にしたがえば、頻度の定義できない変数にも確率分布が定義できてしまうためである。たとえば、正規分布にしたがって生成された乱数列から元の正規分布の平均を推定することを考える。このとき、は間違いなく定数であり確率(頻度)を伴う変数ではない。しかし、ベイズ推論にしたがうと、の確率分布を求める(考える)ことになる。確率を不確実性の尺度として理解することで、この矛盾が解消できるのである。 ベイズの定理 ベイズ推論では、未知変数の確率分布を求めようとする。そのため、確率分布の更新を可能とするベイズの定理: は大きな意味をもつ。は確率変数である。確率分布を事前確率, を事後確率とよぶ。は、という情報を得る前にわかっている確率分布だから事前確率であり、はという情報を得た後にわかる確率分布だから事後確率である。ベイズの定理によれば、事後確率は、事前確率に尤度関数を掛けることで得ることができる。 パターン認識への3つのアプローチ 生成モデル |を入力変数、を目的変数とする。結合分布をモデル化し、決定理論を用いることでの最適値を決定する。このモデルの最大の特徴は、サンプリング法によって人工の入力列を生成できる点にある。これによって学習データの不足領域が明らかになる。入力変数の確率分布までも求めなければならないため、3つのアプローチのなかで最も手間がかかる。特に入出力空間が大きい場合は、パラメトリック学習を用いないと安定した識別器を得ることは難しい。 識別モデル |事後確率を直接モデル化する。推論と意思決定だけが問題である場合、識別モデルで十分である。 識別関数モデル |識別関数の関数形を直接モデル化する。このとき、学習の対象は関数のパラメーターとなる。このアプローチは、他の2つの方法と異なり、入力変数や出力変数の確率分布を考慮しない。そのため、ベイズ推論をおこなうメリットのうち、2.〜5.は使えない。しかし、一度学習さえ完了すれば、意思決定は高速にできるので、音声認識などの実時間処理をしたいシステムに向いている。誤差逆伝搬法やSVMは、ノンパラメトリックな識別関数の学習法の一種である。 決定理論 ベイズ推論によって得られた確率分布から最適な意思決定(行動決定)するための方法論が決定理論である。入力ベクトルをとすると、入力空間のすべてに最適なクラスを割り当てることが目標となる。以後の説明では、結合確率は既知とする。クラスの決定領域(クラスに割り当てられたの集合)はで表す。 ベイズ決定則(事後確率最大化法) |事後確率は、という乗法が与えられたとき、クラスがとなる確率を表しているが、クラスがで正しい確率と読み替えることもできる。このように読み替えると、決定領域が正しい識別結果を返却する確率はによって表すことができる。この確率を最大化するように決定領域を設定したい。その方法は、上式より明らかに、事後確率を最大にするクラスへ分類することだ。 期待損失最小化 |入力にクラスを割り当てたときの期待損失(損失の期待値)を考える。損失はと思っていたものが 期待値 |目的変数が実数ならば・・・ 棄却オプション | 最尤推定法 最尤推定法の概要 ベイズ推論とは異なり、頻度主義にもとづく推定法である。 確率モデル 情報理論 情報量 エントロピー 期待できる情報量。驚きの期待値。分布の一様性を定量的に表したもの。 カルバックライブラー情報量
https://w.atwiki.jp/nekocompany/pages/46.html
立派な絵 キャラ(マンガ)絵 かわいさパラメーター デッサン力 ポーズ ディテール 質感 線画 色彩 マチエール 空気感 構図 背景 パース感 遠近感 レンズ感 アングル デザイン力 衣装 小物 モチーフ 物語性 シチュエーション 風刺 宗教性 ネタ、笑い、パロディ エロ 西野 キャラ(マンガ)絵 かわいさパラメーター 空気感 シチュエーション 風刺
https://w.atwiki.jp/guide/pages/553.html
改善 calendarプラグインの動作改善・パラメーター追加について改善 imageプラグインのパラメーター追加について改善 opencloseプラグインの拡張について改善 sizeプラグインの拡張について改善 スパム判定強化について新プラグイン ホームページに設定(homepage)