約 4,094,690 件
https://w.atwiki.jp/nina_a/pages/43.html
https://w.atwiki.jp/nina_a/pages/45.html
https://w.atwiki.jp/nina_a/pages/44.html
https://w.atwiki.jp/memeplex/pages/95.html
https //gigazine.net/news/20220914-transformer-brain/ ニューラルネットワークと、ニューラルネットワークの最新の論文。脳みその海馬くらいなら、現在のAIで再現可能、、、など 人間の学習にはニューロンが発火するタイミングと脳波の「ズレ」が関係しているかもしれない - GIGAZINE https //gigazine.net/news/20210709-human-brains-temporal-activity-pattern/ 脳波はどのように記憶形成に関与しているのか - GIGAZINE https //gigazine.net/news/20150422-brain-waves-guide-memory-formation/ 人間の記憶を保存できるデバイスを脳に移植して失われた記憶力を補完する研究が進行中 - GIGAZINE https //gigazine.net/news/20140714-memory-saving-devices/ 脳は「時間」や「タイミング」をどのようにして認識しているのか? - GIGAZINE https //gigazine.net/news/20170923-brain-tells-time/ 脳内のニューロンがどのようにして動いているかをプレイして実感できる「Neurotic Neurons」 - GIGAZINE https //gigazine.net/news/20160819-neurotic-neurons/ 「何を食べるか」が脳や気分にどのくらい影響を与えているのかをわかりやすく解説 - GIGAZINE https //gigazine.net/news/20160622-food-affects-brain/ 脳は新しいタスクを学ぶ時にでも既知の習慣に固執する場合があることが判明 - GIGAZINE https //gigazine.net/news/20180403-brain-cling-to-old-habits/ 脳は積極的に「記憶を失おうとしている」ことが判明 - GIGAZINE https //gigazine.net/news/20180726-brain-must-actively-forget/ 脳について意外と知られていない15の豆知識 - GIGAZINE https //gigazine.net/news/20100928_brain_facts/ https //gigazine.net/news/20210521-sleep-evolved-before-brains/ 編集用メモ いつかページに。 automatic1111 https //gigazine.net/news/20220907-automatic1111-stable-diffusion-webui/#2 wd https //gigazine.net/news/20220915-automatic1111-stable-diffusion-webui-waifu-diffusion/ wd github https //github.com/harubaru/waifu-diffusion/blob/main/docs/en/weights/danbooru-7-09-2022/README.md
https://w.atwiki.jp/javadsge/pages/6985.html
ニューラルネットワーク (1)練習 (2)シナリオ (3)逆のシナリオ (4)初期の準備 (5)初期の準備 (6)失敗 (7)初期設定 (8)隠れデータ (9)ほぼ完成 (10)最初の練習 (11)練習 (12)練習7 (13)ren (14)練習 (15)ren (16)練習 (17)スタート (18)練習3 (19)もう少し (19)faststep (20)hiden (21)laststep (22)ほぼ完成 (23)成功 (24)初期設定 (25)最適 (26)途中 (27)途中2 (28)完成 (29)多段階 (30)多段階 -
https://w.atwiki.jp/memeplex/pages/119.html
ニューラルネットワークの基礎的技術であるGANを知れるサイト https //crystal-method.com/topics/gan/ 要は、それっぽい画像を生成する偽物作りAIと 画像を鑑定する鑑定士AIの双方向から検証し合う(敵対的に検証する)ことで、人間の手を借りずに学習できる。 それによって膨大な情報をも扱えるよねーっていう。 だけど人間の手が加わらなさすぎて不安定なので 例えばSDをWDにチューニングしたみたいに 人間の手で最後チューニングしたりもするらしい。 おおかた全体の部分を機械任せにしても教育できちゃう技術のことをGANというのかな?勉強中。
https://w.atwiki.jp/suffix/pages/1482.html
調べながらメモ。たぶん色々嘘ありそう。 学習方式 種類 概要(目的) 線形/非線形 代表例 教師あり 回帰 入力値に対し、結果を予測する 線形 線形回帰(≒ニューラルネットワーク[単純パーセプトロンで活性化関数 ステップ)、リッジ回帰(正則化考慮)等 非線形 k近傍法[nearest neighbor]、ニューラルネットワーク[多層パーセプトロン、再帰型(RNN,LSTM)]、ランダムフォレスト等 分類 機械学習で分類分けする 線形 ロジスティック回帰(≒ニューラルネットワーク[活性化関数 ジグモイド])、SVM等 非線形 SVM、k近傍法[nearest neighbor]、決定木、ニューラルネットワーク等 教師なし クラスタリング 機械学習で分類分けする 線形 k平均[k-means]法、ニューラルネットワーク等 非線形 カーネルトニック、EMアルゴリズム 次元削減 データの意味をなるべく損なわないようにしつつ、データの次元を減らす。結果に影響を与える因子がたくさんありすぎると、複雑度が高く人間が整理できないので、次元を減らし分かりやすくする。 主成分分析(PCA)、ニューラルネットワーク等 その他、複数の学習モデルの方式を組み合わせる アンサンブルという考え方がある。
https://w.atwiki.jp/keiplus/pages/185.html
数学 数学 本項は書きたての記事です。正確な情報は公式サイト、公式ドキュメント、記載の参照サイトでご確認ください。 content 多項式関数 +▼ f(x)=a, f(x)=ax+b, ax~2+bx+c, ax^3+bx^2+cx+d 対数 +... 三角 +... 逆三角 +... 積分 +... 微分 +... 数学、方式 +... 名称 カテゴリ 機械学習 モンテカルロ法 乱数 行動によって得られた報酬経験だけを頼りに状態価値、行動価値を推定 ミラー-ラビン素数判定法 ファンデルコルプト数列 ハルトン列 ソボル列 ニーダーライター列 ファウレ列 ブートストラップ法 統計学 ロジスティック回帰 最尤法 最尤推定 標準誤差 ベルヌーイ分布 ロジット パーセプトロン ニューラルネットワーク シグモイド関数 バックプロパゲーション PDPモデル 線形分類器 ボルツマンマシン 多層パーセプトロン バックプロパゲーション 線形回帰 モデル 単回帰 モデル 多項式回帰 モデル 一般線形モデル モデル 一般化線形モデル モデル 離散選択 モデル ロジスティック回帰 モデル 多項ロジット モデル 混合ロジット モデル プロビット モデル 多項プロビット モデル 順序ロジット モデル 順序プロビット モデル ポアソン モデル 多水準モデル モデル 固定効果 モデル 変量効果 モデル 混合モデル モデル 非線形回帰 モデル ノンパラメトリック モデル セミパラメトリック モデル ロバスト モデル 分位点 モデル 等調 モデル 主成分 モデル 最小角度 モデル 局所 モデル 折れ線 モデル 変数誤差 モデル 最小二乗法 推定 線形 推定 非線形 推定 普通 推定 加重 推定 一般化 推定 部分 推定 総最小二乗法 推定 非負 推定 リッジ回帰 推定 正則化 推定 最小絶対偏差 推定 繰返し加重 推定 ベイズ 推定 ベイズ多変量 推定 回帰検証 背景 平均応答と予測応答 背景 誤差と残差 背景 適合度 背景 スチューデント化残差 背景 ガウス=マルコフの定理 背景 機械学習、データマイニング +機械学習 名称 カテゴリ 概要 分類 問題 クラスタリング 問題 回帰 問題 異常検知 問題 相関ルール 問題 強化学習 問題 構造化予測 問題 特徴量設計 問題 表現学習 問題 オンライン学習 問題 半教師あり学習 問題 教師なし学習 問題 ランキング学習 問題 文法獲得 問題 決定木 教師あり学習 アンサンブル 教師あり学習 (バギング、ブースティング、ランダムフォレスト) 教師あり学習 k-NN 教師あり学習 線形回帰 教師あり学習 単純ベイズ 教師あり学習 ニューラルネットワーク 教師あり学習 ロジスティック回帰 教師あり学習 パーセプトロン 教師あり学習 関連ベクトルマシン(RVM) 教師あり学習 サポートベクトルマシン(SVM) 教師あり学習 BIRCH クラスタリング 階層的 クラスタリング k平均法 クラスタリング 期待値最大化法(EM) クラスタリング DBSCAN クラスタリング OPTICS クラスタリング 平均値シフト クラスタリング 次元削減 クラスタリング 因子分析 次元削減 CCA 次元削減 ICA 次元削減 LDA 次元削減 NMF 次元削減 PCA 次元削減 t-SNE 次元削減 構造化予測 構造化予測 グラフィカルモデル 構造化予測 (ベイジアンネットワーク、CRF、HMM) 構造化予測 k-NN 異常検知 局所外れ値因子法 異常検知 オートエンコーダ ニューラルネットワーク ディープラーニング ニューラルネットワーク DeepDream ニューラルネットワーク 多層パーセプトロン ニューラルネットワーク RNN ニューラルネットワーク LSTM ニューラルネットワーク GRU ニューラルネットワーク 制約ボルツマンマシン ニューラルネットワーク SOM ニューラルネットワーク 畳み込みニューラルネットワーク(U-Net) ニューラルネットワーク Q学習 強化学習 SARSA 強化学習 時間差分(TD) 強化学習 偏りと分散のトレードオフ 理論 計算論的学習理論 理論 経験損失最小化 理論 オッカム学習 理論 PAC学習 理論 統計的学習 理論 VC理論 理論 NIPS 学会・論文誌等 ICML 学会・論文誌等 ML 学会・論文誌等 JMLR 学会・論文誌等 ArXiv cs.LG 学会・論文誌等 全般 学会・論文誌等 統計学および機械学習の評価指標 学会・論文誌等
https://w.atwiki.jp/memeplex/pages/75.html
ざっくり解説 勉強したてなので、ざっくりとしか解説できないが、これを知ってるのと知ってないのとでだいぶ変わってくると思う。 まず人工知能は、ニューラルネットワークによって構成されている ニューラルネットワークをざっくり解説 要は、pcやスマホの中に人間の脳のようなものを仮想で作り出すことで 人間の脳に近い形でデータを保持することができるっぽい。 脳っぽい形式でデータがたまってる、、、みたいなのがニューラルネットワークってこと。 電子的な脳みそって考えでいいかもしれない。 ニューラルネットワークの利用 脳みたいにデータがたまる形式なので、画像をそこにぶちこむことで、画像を脳みたいに記憶することができるじゃん 脳に画像がいっぱいつまってるから、画像に文字をつければ、人間が指示するだけで画像をひっぱってくるじゃん 文字を打つだけで画像ひっぱってくるじゃん、、、になる。 それってグーグルの画像検索と同じじゃない?って思うんだけど「教育して方向性を変える事ができる」のがすごいところ。 仮想空間上に脳みそを生み出すことで、すべてが数式で表現できてる。まぁ要は電子化できてる脳なので、デジタルであやつれるよねーってこと。 グーグル検索とニューラルネットワークの違い 美少女ってグーグルに打つと、美少女ってタグがついた画像をひっぱってくるだけだけど 教育されたニューラルネットワークに美少女って打つと (1)脳内にある美少女画像を検索(ここまではグーグルと同じ) (2)大量の美少女画像から美少女の特徴や法則理解し、新たに画像を生成 (3)さらに美少女の背景、状態、大きさなども脳内にある大量の画像から理解、吸収 (4)最終的に新たな美少女画像が産まれる というところまでできてしまうのだ。 大量の画像から吸収、理解、、、というのは画像修正、画像復元、インペインティングの仕組みも見るとよくわかる、、、かも。 筆者は勉強不足の為、この程度の理解しかできなかったが、ざっくりは解説できたと思う。 深く理解したかった場合は、専門的な記事をしっかり読むことをオススメしたい。 正しく、詳しく知りたい人向け https //jp.mathworks.com/discovery/neural-network.html# ~ text=%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%A9%E3%83%AB%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF%E3%81%A8%E3%81%AF%E3%80%81%E8%84%B3,%E3%81%AB%E6%B4%BB%E7%94%A8%E3%81%95%E3%82%8C%E3%81%A6%E3%81%84%E3%81%BE%E3%81%99%E3%80%82
https://w.atwiki.jp/suffix/pages/1493.html
人手で考える必要があるパラメータのことを指す。 ■共通 特徴選定を行う。 ■ニューラルネットワークの場合 研究は薦められているが、本ページ執筆現在では、 どういう値が数学・アルゴリズム的にベストの学習方法なのか 分かっていないので、経験則でうまくいく設定をまねながら、 下記のような項目を設定するしかない。 ニューロン数、層数 ドロップ率(特徴を消す割合) ラーリング率 層同士の結合指針(畳み込みニューラルネットワークでは、全結合層、畳み込み層、プーリング層等が登場) 活性化関数の組み合わせ(※1) (※1) 活性化関数にはReLUを使うと良いという情報はよく目にする。 ちなみにニューラルネットワークは多層にするが、それはXORのように線形分離できない問題にも対応する意味合いがある。 活性化関数に線形のものを指定しても、あまり意味が無い。 ■回帰の場合 初期モデルの検討もかなり広義的に捉えれば、ハイパーパラメータ? ■ハイパーパラメータ探索のための手法 グリッドサーチ ベイズ最適化 クロスバリデーション