約 5,151,970 件
https://w.atwiki.jp/madwiki/pages/21.html
長寬比(Aspect ratio)是用來描述視訊畫面與畫面元素的比例。傳統的電視螢幕長寬比為4 3(1.33 1)。HDTV的長寬比為16 9(1.78 1)。而35mm膠捲底片的長寬比約為1.37 1。 雖然電腦螢幕上的像素大多為正方形,但是數位視訊的像素通常並非如此。例如使用於PAL及NTSC訊號的數位保存格式CCIR 601,以及其相對應的非等方寬螢幕格式。因此以720x480像素記錄的NTSC規格DV影像可能因為是比較「瘦」的像素格式而在放映時成為長寬比4 3的畫面,或反之由於像素格式較「胖」而變成16 9的畫面。
https://w.atwiki.jp/nicorap_lyric/pages/655.html
[ intro ] ゆらり揺られ夕闇に逃げ込む day by day 正解でも このままじゃ終われない 2人きりで舞台に逃げ込む世界で 手繋いでも君はまだ答えない [ hook ] 約束はいつでも在るだけで 中身は君にしか視えないから 目の前を見据え凝らすだけで 過去なんて要らない 全てを消して新たに愛を 身勝手なテレポーテーション 不得手が増えて音楽以外を 焼き尽くしてきた映像 Sampling Letter, Sampling Letter, 宙を舞う [ verse1 ] おはよう ねぇねぇ、今どんな風? 君の作り出してきた音楽 そりゃ勿論ケースバイケースだと思うけど 実際もしも 今日、明日 自分消えるとしたらオーラス 世に残った形に後悔する? どうなんだろうなぁ 困難を淘汰し本願を成就がオールオッケー 一点突破合戦 折れない七転八倒がアンセム 道を突き進んで完全勝利 邪魔するだけならば断然抗議 one&onlyで引き金引ければ 関係ないだろう安全装置 聴いて欲しいほど人恋しい 喜んでもらえれば二度美味しい サービス精神は絶え間なく 媚びは別物だから捨ておく でも、ひねくれで不器用 好きと言いつつ嫌いみたい 理解し難い どう考えても自分勝手なこのモチベーション 致命傷であり事実として書く ありのままで [ hook ] 約束はいつでも在るだけで 中身は君にしか視えないから 目の前を見据え凝らすだけで 過去なんて要らない 全てを消して新たに愛を 身勝手なテレポーテーション 不得手が増えて音楽以外を 焼き尽くしてきた映像 Sampling Letter, Sampling Letter, 宙を舞う [ verse2 ] 今、君の世界じゃ渾身の一曲達がワンクリック 一対一の出会い別れを蘇らせてはサンプリング 戻ろうとする情報操作なんて 言語道断 打ち消すクラシック 本当かどうか今日、今、一瞬、刹那、記憶に残ればいいんだ どうにか、入り組んでるが 掴んでいてほしいと願って 下手くそすぎる愛情表現 外からはパッと見舞いも同然 ゴメンと言い再挑戦 自分には大冒険 されども I don t care 当然、続ける born shit 後悔なく二人相思相愛 これは誰かの為じゃなく 己を支配しているエゴ でも、真っ直ぐで不死鳥 一歩ずつ描いては ただ空にダイブ どう考えても自分勝手なこのモチベーション 致命傷であり事実として書く ありのままで [ hook ] 約束はいつでも在るだけで 中身は君にしか視えないから 目の前を見据え凝らすだけで 過去なんて要らない 全てを消して新たに愛を 身勝手なテレポーテーション 不得手が増えて音楽以外を 焼き尽くしてきた映像 Sampling Letter, Sampling Letter, 宙を舞う 分からないまま欲しかった物すら忘れ あの頃の景色をもう一度眺めたい なにもできないボクは 鳥籠の中の鳥 空を羽ばたきたい [ hook ] 約束はいつでも在るだけで 中身は君にしか視えないから 目の前を見据え凝らすだけで 過去なんて要らない 全てを消して新たに愛を 身勝手なテレポーテーション 不得手が増えて音楽以外を 焼き尽くしてきた映像 Sampling Letter, Sampling Letter, 宙を舞う 泣く時は君の腕の中で 笑顔に変われる気がするから だからこそ今だけ歌わせて 過去なんて要らない 視界を消して音楽に愛を 気まぐれなテレポーテーション そして失くした全て集めて再度 映し出されてく映像 Sampling Letter, Sampling Letter, 宙を舞う Lyric by らっぷびと,かっつん
https://w.atwiki.jp/whats-mind/pages/20.html
最近Dirichlet Processというのを良く聞きます。 クラスタリングというとあらかじめのクラスタ数Kで決める手法が多いのですが、 この手法はKそのものを推定する手法だそうです。すごいですね~ ということで、Dirichlet Processの勉強をしたくて その学習手法の中で出てくるギブスサンプリングを 簡単な例でpythonで実装してみました。 ギブスサンプリングを用いてX~N(μ,σ^2)から 出力されたサンプルからμとσを推定します。 μの事前分布をガウス分布、σの事前分布を逆ガンマ分布としています。 #!/usr/bin/python #coding utf-8 from numpy import * from scipy import ndimage from scipy.stats import norm from scipy.stats import invgamma # サンプル数 n_sample = 30 # ステップ数 n_step = 1000 # 一次元ガウス分布の乱数 def r_gaussian(mu, sigma2, size=0) r_norm = norm.rvs(size=size) return [mu + sqrt(sigma2)*r for r in r_norm] # 逆ガンマ分布 def r_invgamma(alpha, beta, size=0) r_invgamma0 = invgamma.rvs(alpha, size=size) return [beta*r for r in r_invgamma0] # 推定したい平均と分散の2乗 mu_c = 3.0 sig2_c = 1.0 sample = r_gaussian(mu_c, sig2_c, n_sample) # muの事前分布パラメタ mu_o = 5.0 tau2_o = 10.0 # sigma2の事前分布のパラメタ nu_o = 10.0 lmd_o = 30.0 # 推定値 mu_e = 0.0 sig2_e = 1.0 avg_sample = mean(sample) sig2_sample = ndimage.variance(sample) data_mu = [] data_sig2 = [] # Gibbs Sampling for n in range(n_step) mu_e = r_gaussian((n_sample*avg_sample/sig2_e+mu_o/tau2_o)/(n_sample/sig2_e+1.0/tau2_o), 1.0/(n_sample/sig2_e+1.0/tau2_o), 1)[0] sig2_e = r_invgamma((n_sample+nu_o)/2.0, (sig2_sample+n_sample*(mu_e-avg_sample)**2+lmd_o)/2.0, 1)[0] data_mu.append(mu_e) data_sig2.append(sig2_e) #描画 import matplotlib.pyplot as plt fig = plt.figure() ax = fig.add_subplot(111) #ax.plot(sample) ax.plot(data_mu) ax.plot(data_sig2) ax.set_ylim([0.0, 5.0]) plt.show() 緑が分散で青が平均の推定値です。
https://w.atwiki.jp/vocaloidchly/pages/2714.html
作詞:林檎 作曲:林檎 編曲:林檎 歌:巡音ルカ 翻譯:yanao 請取用翻譯者不要冒著被我發現然後詛咒一輩子的危險改動我的翻譯謝謝合作 sampling sky 只在搖曳的葉隙間看到的 逐漸被封起的身影是 沐浴在水中閃閃發亮的 耀眼回憶 為掛在天空太陽的 眩目而看得入神 願能將那風納入手中 希望無論如何都能實現 希望能抵達只以願望 連繫起的你那 只有藏起崩潰雙翅 造出笑容的我的 哀慘浮現而出 在刺眼的光中 看啊 呼喊聲 在悲傷之中截斷了 願能甩開這陣風 此刻 能夠稍微碰觸 那伸出的手嗎 在對你的 思念斷絕之後
https://w.atwiki.jp/legiontd2jp/pages/29.html
ASPECT アースキング スカイキング
https://w.atwiki.jp/candidates/pages/183.html
【生年月日】 1947年6月15日 【出身地】 アジャン 【肩書】 エコール・ポリテクニーク 教授 等 【学歴】 オルセー大学にてPhD取得。 【予想授賞理由】 ベルの不等式の検証と量子もつれに関する研究により。 ※John F. Clauser、Anton Zeilingerとの共同受賞の可能性がある。 【受賞歴】 2010年 ウルフ 2011年 トムソン・ロイター引用栄誉賞 等 【主要業績】 A. Aspect et al. "Experimental Test of Bell's Inequalities Using Time- Varying Analyzers". Phys. Rev. Lett. 49 1804–1807, (1982).. A. Aspect et al. "Experimental Realization of Einstein-Podolsky-Rosen-Bohm Gedankenexperiment A New Violation of Bell's Inequalities". Phys. Rev. Lett. 49 91-94, (1982).. 【関連本】 坂本秀人 「科学思想史の探究」 学文社、2013年。 山田克哉 「量子力学はミステリー (PHPサイエンス・ワールド新書)」 PHP研究所、2010年。 ロバート・P・クリース 「世界でもっとも美しい10の科学実験」 日経BP社、2006年。 古ジョンジョー・マクファデン 「量子進化―脳と進化の謎を量子力学が解く!」 共立出版、2003年。 【その他】 YouTube動画 【タグ】 フランス、物理学
https://w.atwiki.jp/asagaolabo/pages/4401.html
sampling masters MEGA / 細江慎治 【サンプリングマスターズメガ】 【ほそえしんじ】 sampling masters MEGA / 細江慎治 概要 プロフィール 関連リンク 概要 ポップンミュージックシリーズのゲスト参加アーティスト。 プロフィール 関連リンク ロッテルダムテクノ レーシング ラブリーキャットポップ スタッフ
https://w.atwiki.jp/akinobu1217/pages/23.html
参考(2007-04-19) 初めてのAspcect指向 http //www.stackasterisk.jp/tech/java/aspect01_01.jsp 【連載 】DIコンテナSeasar2を用いたWebアプリケーション作成 第1回:Seasar2のDI機能、AOP機能を試す http //www.stackasterisk.jp/tech/java/seasar201_01.jsp AOPとは何か http //www.thinkit.co.jp/free/compare/15/5/1.html AOPメモ http //muimi.com/j/aop/
https://w.atwiki.jp/todo314/pages/155.html
2.5K-Graphs from Sampling to Generation Minas Gjoka, Maciej Kurant, Athina Markopoulou INFOCOM 2013 概要 2.5K-graph 次数kの頂点と次数lの頂点を結ぶ辺の個数の分布と、次数kの頂点のクラスタ係数の平均値を分布に着目 ソーシャルネットワークから↑を高速に見積もり、そういう分布になるグラフも生成する ↑以外の分布も結構一致する! 問題 JDD(k,l) = 次数kの頂点と次数lの頂点を結ぶ辺の数 JDD = Joint Degree Distribution 2頂点の部分グラフの次数依存の分布 ‾c(k) = 次数kの頂点のクラスタ係数の平均値 dk-series 0K 平均次数 1K 1頂点の次数分布 2K JDD 3K 次数k,l,mの頂点の三角形とwedgeの個数 dKについてdが増えたほうが細かくなる、でも計算がやばめ 2.25Kと2.5Kは? 2.25K JDDと‾c 2.5K JDDと‾c(k) 2.5Kに今回注目するよ! 問題定義 Estimation JDD(k,l)と‾c(k)をランダムウォークから見積もる Graph Generation ↑で求めたパラメータを持つグラフを構築する(非自明に) Estimation Uniform Independence Sampling (UIS) 等確率で頂点をサンプルするとして見積もる Weighted Independence Sampling (WIS) 各頂点をw(u)の重みに従いサンプル、でもw(v)=deg(v)にしちゃう Simple Random Walk (RW) WISと同じじゃね???? パスがあるから違うか… 後処理 Smoothing Gaussian Kernel Smoothingとかしちゃう(幅とって重み付けするやつかな?) Realizable JDD 長い(´・ω・`) Generating a 2.5K Graph アホっぽいやりかたMCMC JDD(k,l)の分布をどうにか一致させられたとする 適当に辺を2つ選んで、クラスタ係数の分布が近くなったら更新する、ただし、JDDが変化しないように 三角形がボカスカ壊れるので、無理ゲー Our 2.5K generator 頂点vに乱数r_vを設定する dist(u,v) = min(|r_v-r_u|, 1-|r_v-r_u|)で辺をソート 境界がない1次元[0,1]での距離 JDDや次数が見積もったのを超えないならば辺を追加していく 何がうれしいの? 辺がローカルに密集する、distでソートしたから つまり、クラスタ係数がでかい感じでJDD、次数分布を一致させられる これをしてからdouble-edge swapsでクラスタ係数を近づける 実験 基本ベクトルなので、Normalized Mean Absolute Errorで測る クラスタ係数分布…結構いい感じ JDD…smoothingが偉大だった 生成速度 {2K-T, 2K} × {Imp. MCMC, MCMC}の組み合わせ 2K-Tは提案したやつ、2Kは既存手法 Imp.MCMC は何か頑張ったらしい 2K-Tはかなり速い、Imp. MCMCと組み合わせるとベスト! 何でか? 時間に対する収束度合いを見ると、2Kはクラスタ係数をじわじわ上げていかなきゃならんのに対し、2K-Tは高いところからストンと落とせばいいだけ 他の性質も似てるかな? The degree distribution Edgewise shared partner distribution Shortest path distribution Maximal clique distribution Cycles distribution Spectrum Closeness centrality 2Kはどうにも元のグラフと合わない、2.5Kは最大クリークを除いてかなり似ている(実際に結構一致していると思った まとめ タイトルが謎すぎてほったらかしていたが思いの他面白かった グラフの生成に対するこういうアプローチは既にアッたんだなあと思った 手法がシンプルな割に三角形いっぱいつくるぞーって感じで面白い 他の性質にはむしろモチーフを使って欲しかった? 3.5Kにまで拡張したらどうなるか知りたい INFOCOM clustering coefficient degree distribution random walk 2014-01-01 03 54 31 (Wed)
https://w.atwiki.jp/todo314/pages/154.html
Sampling Community Structure Arun S. Maiya, Tanya Y. Berger-Wolf WWW 2010 概要 expander graphのコンセプトによるコミュニティのサンプリング手法 コミュニティ検出で推論っぽいこと?もできるらしい 問題 X(S) = |N(S)|/|S| 隣接頂点数/頂点数 サイズkのサンプルSがcommunity representative sample minimize D[P_S(G(S)), P_S(G)] D[,]は分割に対する距離尺度 P_S(G)はGを使って作られた分割 手法 X(S)の最小化もあるけれどそうではなくて、最大のサンプルを見つけたい 2つ手法を考えたよ Snowball Expansion Sampler (XSN) 最初の頂点を適当に選ぶ k個選ぶまで、|N({v})-(N(S)∪S)|が最大の頂点をSに追加 何でこの式なのかは何か説明されている つまり単にX(S)についてGreedyするだけ MCMC (XMC) Markov Chain Monte Carlo simulation |N(S)|/|V-S|をスコアとする スコアがよくなったら更新、悪くなったら[新しいスコア/今のスコア]^pみたいな確率で更新 実験 コミュニティ検出手法 Girvan-Newman algorithm (GN) Newman’s leading eigenvector method (NLE) An algorithm based on greedy optimization (CNM) 評価基準 分割の距離関数D 分割が同一になるようにするために削除する頂点数の最小値 サンプルから出来たコミュニティの頂点達が元のでかいグラフから出来た同じコミュニティに入っていると良い サンプル内のコミュニティの割合も考える ↑2つを混ぜるよ FRAC...recall サンプル内のコミュニティの割合???(高いほうが良い PART...precision 距離関数の値を正規化して1-xを計算(高い方が良い F-scoreを計算する Composite = (2FRAC+PART)/(FRAC+PART) 結果 XSNがかなりよさげ FRACもPARTもCompositeも 次数分布とクラスタ係数も比べてみたお べつにあんまり良くない まとめ ふ~ん 理論的にどうこう無いし、気合いで説得なのかなあ? WWW community detection 2013-12-31 19 17 44 (Tue)