約 1,990,379 件
https://w.atwiki.jp/agbnavi/pages/14.html
USBのGNSSレシーバーをBluetooth化することは出来ますか? 市販の製品でUSBの外部GNSSをBluetoothに変換できる機器はありません。BitTradeOneのUSB2BTはキーボード等のHIDクラスに対応した製品で、AgriBus-NAVIでは使用出来ません。 ○○のスマートフォン/タブレットでUSB-OTGは使えるでしょうか? まず、その端末がOTG(USB-Host)機能に対応している必要があります。最近は端末の仕様書に記載されることが増えて来ましたし、ネットでも情報を収集することができます。 次に、その端末がCommunications and CDC Controlクラスを実装している必要があります。これは仕様書やカタログに記載されていることは殆ど無く、ネットでの情報収集も難しいでしょう。現在のところ、実際にOTGでGNSSレシーバーを端末に接続して試してみるしか確認の手段が無いのが実情です。まずはVK-162等の安価なレシーバーをOTGケーブルで接続して試してみるのが良いでしょう。auの2016年夏モデルからUSB-Host機能の仕様について、詳しく公表されるようになりました。 さらに、実際にOTGでAgriBus-NAVIを使いながら充電が追いつくかが問題です。例えばNexus7でAgriBus-NAVIをOTG接続で使用する場合、良好なUSB電源とケーブルを用いて約1.1Aの電流が流れますが、端末を満充電にする程の余力はありません。
https://w.atwiki.jp/t100ta/pages/9.html
付属のアダプタは32GB・HDDなしモデルが2A、HDD付きモデルが3Aのもの。 普段使いのレベルであれば付属のアダプタとケーブルの組み合わせで、寝る時に本体をシャットダウンしてから充電しておけばオーケー。 100均のケーブルは避けたほうが無難。 やむを得ない場合は【充電専用】表記のある極力短いケーブル(50cm以下)を選ぼう。 付属品とは別に1ポートあたり2A~3A出力が可能なアダプタと、その出力に対応できる充電専用ケーブルを購入しておくと吉。 【コメントフォーム・新しいコメントが上に来ます】 名前 コメント れよふ -- けいた (2017-08-17 09 26 03) 何もしてなくても、充電よりバッテリー消費の方が早いんだけどこれはデフォ?ちなみに付属のアダプタとケーブルです -- 名無しさん (2015-10-26 12 24 30) いけちゃさんのお勧めのUSB-ACアダプタを使って見ましたが、やはり使用しながらの充電はできないようすです。充電ケーブルも急速充電対応の2.4A対応のもので試しましたがだめな様子です。フルに1日がっつり使いたい場合は、モバイル用途ではかなりきびしいですね。 -- 名無しさん (2015-02-07 22 22 48) http //www.amazon.co.jp/gp/aw/d/B00KQEB8K6 -- いけちゃ (2014-12-18 10 18 56) 3Aではありませんが、これで充電は出来ますが~ -- いけちゃ (2014-12-18 10 18 34) 3A対応のおすすめの小型充電器を教えてください。できれば、コンセント側のコネクタが収納式のものが希望です。 -- 名無しさん (2014-12-17 05 18 35) ミスった。タブレットとして使いたいのですが、microUSBで充電しながらUSB機器を使うのって可能ですか?それっぽいケーブル買ったらUSBは認識されるけど充電されなくて、どこかのページを参照して、microUSB延長ケーブルのIDケーブルを切断してみたら、充電はできるけどUSBは認識されないという結果でした。 -- 名無しさん (2014-04-29 19 23 47) タブレットとして使いたいのですが、micro -- 名無しさん (2014-04-29 19 21 05) モバイルバッテリーは、Sony CP-F10LSAVP での充電を確認していますが、元の容量が大きいので10000mAでも1回満充電できるかくらいですね。 -- 名無しさん (2014-03-24 13 58 49) モバイルバッテリーでの充電はできるのかな?最大出力2.1Aで -- 名無しさん (2014-03-16 14 20 31) 予備としての意味と、ヘビーな使い方だと消費に対して給電が間に合わない場合があるので高出力タイプも別に持っておいた方がいいかな、という意味があります。 -- 管理人 (2013-12-28 06 57 56) 充電アダプタが付くのに別にあったほうがいいのはなぜ? -- 名無しさん (2013-12-27 03 26 10) DK564GのACアダプタは3Aなのはいいんだけど140gと携帯には少し重めだね -- 名無しさん (2013-12-16 16 50 07) HDD付きモデル付属のACアダプタは5V/3Aとの情報。 -- 管理人 (2013-11-30 14 03 34) 昨夜、1.90Aへの到達を目視確認しております。 -- 管理人 (2013-11-27 10 45 54)
https://w.atwiki.jp/melodroid/pages/20.html
Armadillo-500 FX用USBカメラ接続 概略 Armadillo-500 FXにUSBカメラを接続して、Android上で画像表示させる方法について記載する。 記載、および、動作確認には、cupcakeバージョンを対象としている。 バージョンによっては、処理が異なる為、別途処理が必要な場合もある。 目次 カメラアプリについて カメラ処理概要 USBカメラ接続方針 前提環境(ソフト) 前提環境(ハード)Armadillo-500FX USBカメラ 修正概要 カーネル修正 ミドル修正 つまづいたこと 次回やるならば 参考資料 カメラアプリについて 画面表示するために使用するカメラアプリについて記載する。 使用するカメラアプリAndroid(Cupcake)のソースに含まれているアプリ ”generic”でビルドした場合、もしくは、”USE_CAMERA_STUB = true”で指定した場合に、デバイスがなくても動作するアプリ エミュレータとして動かした場合、動作するアプリ カメラアプリの起動方法homeからアプリ一覧を表示させる ”Camera”(カメラ)と表示されているアイコンをタップする 既存の動作について表示される画像は、デバイスに依存しない画像 表示される画像は、ライブラリ内で生成している 画像形式は、YUV形式の特殊な形式だと予想される 注意事項Androidのソースで、”USE_CAMERA_STUB = true”の指定をはずしただけだとリンクエラーとなる カメラアプリで表示される画像は、モノクロとなっている 画像形式は、YUV形式のようだが、OpenGLESがモノクロ表示のみである為、正しい指定かどうか判断できていない カメラ処理概要 カメラアプリ部分から実際の画像生成部分までの処理の概要を説明する。 カメラ処理全体の関係図は、こんな感じかな。 画像(別窓) 各処理概要 カメラアプリ処理部分カメラアプリを選択した場合に動作するアプリケーション部分 いわゆるSDKで作成できる部分で、フレームワーク層のクラスを利用している ソース該当箇所cupcake/packages/apps/Camera/ カメラクラス(フレームワーク)アプリケーション上で、カメラ機能を使う為のフレームワーク フレームワークとしては、JNIを利用してのJAVA層とC/C++層の橋渡しを実施 広い意味では、C/C++層内部でのカメラサービスライブラリまでの連結までを含めてよいのかもしれない ソース該当箇所(JNI・Java層)cupcake/frameworks/base/core/java/android/hardware/Camera.java (JNI・C++層)cupcake/frameworks/base/core/jni/android_hardware_Camera.cpp (UI内カメラクラス)cupcake/frameworks/base/libs/ui/Camera.cpp (メディアサーバ)cupcake/frameworks/base/media/mediaserver/ カメラサービスライブラリカメラ機能を使う為のライブラリとなる カメラハードウェアに対応させる場合、このライブラリをうまくカーネルとつなげば良いと考えることができる genericビルド時やエミュレータビルド時には、ここがスタブとなる ソース格納箇所:cupcake/frameworks/base/camera/libcameraservice (カメラサービス本体)CameraService.cpp (ハードウェア代替スタブ)CameraHardwareStub.cpp (上記の画像生成部)FakeCamera.cpp 注意事項当たり前ですが、説明には主観が思いっきり入ってる そして、ソースを眺めただけなので、実際の動作と異なる可能性がある USBカメラ接続方針 カメラアプリに対して、実際のカメラデバイスを接続する基本方針について記載する。 基本姿勢動けば、OK(いいのか・・) なので、流用できる部分は流用する 簡単そうなので、UVCカメラを使う 基本方針カメラサービス内でエミュレータ用処理をベースとするハードウェア代替処理(CameraHardwareStub.cpp)をUSBカメラ用にする 画像形式・処理については、フェイクカメラ(FakeCamera.cpp)を参考にする ハードウェアを操作する処理は、V4L2インタフェイスを使用するドライバ部分は、カーネルコンフィグで対応 ドライバ利用は、公開されているライブラリを流用 上記の方針を図にすると、こんな感じかな。 画像(別窓) 注意事項方針は、ブリリアントサービス様の記事を(勝手に)基にしてる 当時、V4L2インタフェイスを知る前だったので、構成の怪しさが抜群 前提環境(ソフト) 基本方針にそって説明していく上で、前提となる開発環境について記載する。 前提となる開発環境は、開発環境構築で構築した環境とする。 実際構築したベースを記しておく。 確認したベースバージョンkernelは、Armadillo-500FX用(v2.6.26-at6) kernel以外は、cupcake 注意事項最新のほうが扱いやすいと思われるが、試してません・・。 前提環境(ハード) 基本方針にそって説明していく上で、前提となるハード要素を記載する。 実際に確認したハードに対して、必要そうな要素を記載する。 要素があってれば、応用はできるかも。 Armadillo-500FXハード要素としては、USBのホスト機能が必要(たぶん、USB2.0対応が必要)Armadillo-500FXでは、CON3(小さい基盤の方のCON3) また、ホストとして使用するので、JP1をショートさせる 注意事項CON3、JP1については、ハードウェアマニュアルを参照ください。インタフェースマニュアルは、でかい基盤用なので、違うっぽい High-Speedで使用しないと、遅いかも。 念の為、Armadillo-500FXが今回の対象としているハードAtmark Technoの紹介ページに説明がある USBカメラハード的な要素としては、カメラがUSBの規格にそっていることUVC(USBビデオクラス)に準拠したUSBカメラであれば問題ないはず! 注意事項UVC準拠とかかれたWebカメラを見たことがない。 でも、UVCカメラと名の付いた商品はみたことある。 いちおう、実際に使用したカメラは、実験環境に書いてる。 「ドライバのインストール不要」と書かれてる商品は、準拠してる可能性が高いはず 修正概要 基本方針にそって修正していく上の概要を記載する。 カーネル修正カーネルについては、コンフィグレーションの変更で対応するUCV用処理等は、カーネル内にドライバソースとして存在している 先駆者の修正にのっとり、USB OTG機能を有効にする V4L2インタフェイスを利用できるようにする ミドル修正V4L2を利用できるようにCameraHardwareStubを改造V4L2を利用するライブラリとして、uvccaptureのコードを使用 あとは、構造体とインタフェイスを合わせる カラーにしたい場合は、画像変換を追加する 注意事項uvccaptureのネタは、ブリリアントサービス様のブログから拝借 他に、いろいろあるけど、各詳細で記載する カーネル修正 カーネルの修正については、概要にあるように、コンフィグレーションを追加するだけになる。 ターゲット環境(Armadillo-500FX)での方法端末で、カーネルフォルダ(cupcake/kernel)内に移動する 「make menuconfig」をタイプする上記のコマンドで、コンフィグ設定画面が起動する UVCサポートが有効になるように設定する「Device Drivers」をエンターで選択する 「Multimedia Devices」をエンターで選択する 「Video for Linux」を「Y」でチェックする 「Video capture adapters」をエンターで選択する 「V4L USB devices」をエンターで選択する 「USB Video Class (UVC)」を「Y」でチェックする 「UVC input events device support」を「Y」でチェックする USB OTG機能が有効(HOST設定が無効)になるように設定する「Device Drivers」をエンターで選択する 「USB support」をエンターで選択する 「Allow High Speed (on OTG port)」をエンターで選択する「EUHI HCD (USB2.0) support」の下のほうにある 「on OTG port」をエンターで選択する 設定変更したコンフィグファイルを保存するコンフィグのトップ階層まで戻る(「ESC」2回でひとつ上の階層に戻れる) 「Save an alternative Configuration File」を選択する 「armadillo500fx_dev_android_defconfig」に変更点をマージするkernel/arch/arm/configsにあるファイル それ以外の環境(予想)configファイルをロードする UVC サポートとUSB OTG有効(HOST有効)に設定する configファイルをセーブする 注意事項Armadillo-500FXでもConfigファイルをロードして変更したほうが楽な気がする 直接ファイルを編集しても問題ないが、依存関係があるので注意が必要 USB OTGの設定は先駆者の設定によるが、ホスト機能があれば動く気がするただ、USB2.0サポートは必要かもしれない(UVCの規格上) ミドル修正 ミドルというか、CameraHardwareStubの代替処理作成の概要について記載する。 ソース整理ができてないのと、中途半端な実装なので、ソースは謎のままに・・。 FakeCamera代替V4L2インタフェイスを利用したソースを取得ブリリアントサービス様のページに書かれているuvccaptureコード 以下2ファイルを cupcake/frameworks/base/camera/libcameraservice に格納v4l2uvc.c v4l2uvc.h CameraHardwareStubの代替FakeCameraを利用した処理を v4l2uvc,h にあるインタフェイスで置き換えるクラス生成処理をmallocなどに置き換える Cソースの「#include ”~”」を「extern "C" {}」で囲む その他、もろもろ調整(ハード次第で時間かかるかも。。) Android.mkの修正代替ファイルになるように置き換え 「LOCAL_SHARED_LIBRARIES = libui」に「 libui libc」を追加場合によっては不要 注意事項まとめるのが遅かったので、少しあやふやな部分がある。 「uvccaptureコード」の扱いに注意が必要GPLライセンスなので、リンクさせると、コピーレフト 利用せずに、直接書いたほうがすっきりするかも C++ソースとCソースのリンクに注意C++からCソースの関数を呼ぶ場合、おまじない(extern "C")が必要 V4L2インタフェイスに設定するパラメタは、ハードに依存する使用したデバイスは、YUVのみ出力、かつ、縦長だけだった デバイスからのデータをどこかで加工する必要がある OpenGLを利用する関係で、YUVはモノクロになる カラー希望ならば、RGBなどにする必要がある つまづいたこと 今回実装する上でつまづいたことをまとめておく C/C++ソースのリンクC++からC関数をコールする場合、おまじない(extern "C")が必要 カメラ画像表示デバイス特有かもしれないが、設定したサイズを縦長とか横長にする場合有り ログを仕込んだりして、期待通り設定されているか知る必要有り カラー表示(画像形式)FakeCameraがYUV(packed)で実装されているが、カラーにはRGBが必要 知らないと、画像形式の勉強をした後に、知ることに。。 次回やるならば 今回実装する上で失敗、保留した点をまとめておく V4L2インタフェイスの利用方針楽をするために流用したが、独自で実装したほうがわかりやすいかも インタフェイス資料はあるため、次回はカスタマイズして利用してみたい デバイスのアクセス権限カメラ接続時に、/dev/video0 が作成されるが、アクセス権限がない 毎回ターミナルで設定すればいいが、起動時に設定されるようにしたい 実装範囲プレビューがメインだったため、一部関数のみ実装したが、フル機能にしたい。 実効速度カラー表示のため、YUV→RGB処理を入れたが、計算に時間がかかる模様 浮動小数→固定小数とかで、速度向上が必要 バッファの数見直しも必要 参考資料 USBカメラ接続において参考となる資料のリンク先をまとめて記載する。 Androidの会組込みGWのAndroidでUSBカメラを使う方法 ブリリアントサービス様のArmadillo-500上のAndroidでカメラプレビューする方法 V4L2ドライバの為のV4L2インタフェイス
https://w.atwiki.jp/mariomeka/pages/264.html
Mii 名前 SavXLand0n Twitterアカウント https //twitter.com/savxlandon?s=21 t=gZi7FMRxdyeZVtowMRwTkA 旧Twitterアカウント https //twitter.com/savxland0n?s=21 t=gZi7FMRxdyeZVtowMRwTkA YouTubeチャンネル https //m.youtube.com/channel/UCtR179dCY15ShG5lD8xu9qQ 国籍 アメリカ アメリカ圏 職人ID MC2-7L9-5MF 概要 アメリカのメダル勢。 コース制作やどこまでマリオチャレンジなどのモードを中心にプレイしている。 SavXLand0n氏は金メダル10枚保持を達成という偉業を成し遂げたプレイヤーである。ただし、実質的にはみんなでバトルの項目は金メダルでは無い(後述)。 なお、金メダルをコンプリートした際にマリオメーカー2は引退した。 実績 前述した通り世界で4人目の金メダル10枚コンプリート達成者であり、Enviosity氏、Bruh-YAYA氏、Hoopa64氏に次ぐ快挙である。 Hoopa64氏以外はアメリカ勢プレイヤーであるため、アメリカ国内では3人目となる(Hoopa氏はドイツ勢)。 達成日時は日本時間2022年7月31日、米国時間で7月30日。 ↑達成時の本人のツイート ただし、みんなでバトルに関しては実力による7000到達ではなく、夜遅くの過疎な時間に2台のSwitchを使用して半永久的にレートを上げる手法を取っている。 界隈では不正と言われる行為であるが、この事を本人は自白しており、その後は自らレートを下げて、みんなでバトルの金メダル枠を圧迫しないよう他人に配慮している。 ↑みんなでバトルの金メダルは2台のSwitchを使って到達し、実質チートであるということの説明をするツイート なお、決してバトルが下手な訳ではなく、SavXLand0n氏自身の実力で、最高レート6538を記録している。また、10連勝も何度か達成している。 なお、みんなでバトル以外の金メダルを獲得した日は以外と早く、2022年5月28日(JST)では週間職人ポイントを含めた9枚金メダル保持を達成している。 コース投稿 かつてはオリジナルワールドを投稿していたらしいが、2-8、3-4、3-6以外は投稿されていない。(伸びたコース以外を消したかも?) その後にSuper Modern Bros.シリーズを開始し、初代スーパーマリオブラザーズの原作コースをゴリゴリに装飾してアレンジしたもの。 初代マリオには無いワールドごとのシーンスキンもつけられており、地上系スキンにも天井があったり、ステージに合わせてノコノコをカロンへ変更したりなどと、様々なリメイクが施されている。W3-3までは副タイトルがつけられていた。 ○リメイクの例 W1-1 W2-1 なお、引退時の7月31日を持ってSuper Modern Bros.シリーズも制作を終了した。 現在は8-1までのコースが投稿されている。 また、エンジョイスピードランや単発ギミックコースも投稿しており、足跡が10000を超える人気コースも多く存在する。 中でも"☆★ Wii Sports ★☆"は足跡239000、いいね数66000を誇る超人気コース。 ↑投稿コースの一例 ↑Wii SportsはSavXLand0n氏のコースで一番人気のコースである。 その他 SavXLand0n氏は音楽ファンであり、Twitterの自己紹介欄にもそう書かれている。YouTubeチャンネルはマリオメーカー2ではなく音楽用のチャンネルらしい。動画投稿もしている。 関連ページ Enviosity…世界初の金メダルコンプリート達成者。 d101…第4回総合成績ランキング2位。バトルの達人でもある。
https://w.atwiki.jp/grape/pages/25.html
Save Japari Union(SJU)とは SJPと同じ目標で活動している中国本土の団体です。 名前も違いも紛らわしいですが、SJPは台湾発の世界的団体、SJUは中国本土だけで集まった団体です。 ロゴにはSave Japari Park Unionと書いてあるからさらに紛らわしい。 大体SJUと表記されますが、Save Japari 聯盟(連盟)と表記されることもあります。 ヤオヨロズへの応援メッセージを直接送るプロジェクトではこの団体の協力がありました。 引用元 JPガイド(上記のものは、2017/11/09 16 17時点のデータ) https //docs.google.com/document/d/1EgbJLo3fP_Og3E8pvIVDE_Gff-sNjLye4OOfmMjf51g/edit#heading=h.2lsezsz3vrj9 拯救加帕里 | SAVE JAPARI https //save.japari.info/ Twitter https //twitter.com/SaveJapari
https://w.atwiki.jp/b3supple/pages/117.html
#ref error :指定ページの閲覧権限がありません。ログインするか、別のページの画像ファイルを指定してください。 メーカー SAVAS ザバス 商品名 プロテイン サイズや容量 名前 聖栞丸 (商品名不明) プロテイン 味や溶け 自分には甘すぎで一回でやめました。 価格 価格はやはりかなり割高だったと。。。 効果 総合評価 コメント ホエイで筋トレ初心者の頃に摂ってました。
https://w.atwiki.jp/usb_audio/pages/39.html
原文:Audio Device Document 1.0(PDF) USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 51 Offset Field Size Value Description 3 bUnitID 1 Number Constant uniquely identifying the Unit within the audio function. This value is used in all requests to address this Unit. 4 wProcessType 2 Constant 3D-STEREO_EXTENDER_PROCESS process type. 6 bNrInPins 1 Number Number of Input Pins of this Unit 1 7 bSourceID 1 Number ID of the Unit or Terminal to which the Input Pin of this Processing Unit is connected. 8 bNrChannels 1 Number Number of logical output channels in the Processing Unit’s output channel cluster. 9 wChannelConfig 2 Bitmap Describes the spatial location of the logical channels in the output channel cluster of the Processing Unit. At least Left and Right must be set. 11 iChannelNames 1 Index Index of a string descriptor, describing the name of the first logical channel in the Processing Unit’s output channel cluster. 12 bControlSize 1 Number Size, in bytes, of the bmControls field n 13 bmControls n Bitmap A bit set to 1 indicates that the mentioned Control is supported D0 Enable Processing. D1 Spaciousness. D2..(n*8-1) Reserved 13+n iProcessing 1 Index Index of a string descriptor, describing this Processing Unit. 4.3.2.6.4 Reverberation Processing Unit Descriptor The wProcessType field of the common Processing Unit descriptor contains the value REVERBERATION_PROCESS. (See Section A.7, “Processing Unit Process Types”) The Reverberation Processing Unit has a single Input Pin. Therefore, the bNrInputs field must contain the value 1. The bNrChannels, wChannelConfig and iChannelNames fields together constitute the output cluster descriptor of the Reverberation Processing Unit. It describes which logical channels are physically present at the output of the Processing Unit. In most cases, this will be identical to the configuration of the input channel cluster. The bmControls field indicates which reverberation-related Controls are effectively implemented in the Reverberation Processing Unit. The following table outlines the Reverberation Processing Unit descriptor. It is identical to the common Processing Unit descriptor, except for some field values. It is repeated here for clarity. USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 52 Table 4-12 Reverberation Processing Unit Descriptor Offset Field Size Value Description 0 bLength 1 Number Size of this descriptor, in bytes 14+n 1 bDescriptorType 1 Constant CS_INTERFACE descriptor type. 2 bDescriptorSubtype 1 Constant PROCESSING_UNIT descriptor subtype. 3 bUnitID 1 Number Constant uniquely identifying the Unit within the audio function. This value is used in all requests to address this Unit. 4 wProcessType 2 Constant REVERBERATION_PROCESS process type. 6 bNrInPins 1 Number Number of Input Pins of this Unit 1 7 bSourceID 1 Number ID of the Unit or Terminal to which the Input Pin of this Processing Unit is connected. 8 bNrChannels 1 Number Number of logical output channels in the output channel cluster of the Processing Unit. 9 wChannelConfig 2 Bitmap Describes the spatial location of the logical channels in the output channel cluster of the Processing Unit. 11 iChannelNames 1 Index Index of a string descriptor, describing the name of the first logical channel in the output channel cluster Processing Unit. 12 bControlSize 1 Number Size, in bytes, of the bmControls field n 13 bmControls n Bitmap A bit set to 1 indicates that the mentioned Control is supported D0 Enable Processing. D1 Reverb Type. D2 Reverb Level. D3 Reverb Time. D4 Reverb Delay Feedback. D5..(n*8-1) Reserved. 13+n iProcessing 1 Index Index of a string descriptor, describing this Processing Unit. 4.3.2.6.5 Chorus Processing Unit Descriptor The wProcessType field of the common Processing Unit descriptor contains the value CHORUS_PROCESS. (See Section A.7, “Processing Unit Process Types”) The Chorus Processing Unit has a single Input Pin. Therefore, the bNrInputs field must contain the value 1. The bNrChannels, wChannelConfig, and iChannelNames fields together constitute the output cluster USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 53 descriptor of the Chorus Processing Unit. It describes which logical channels are physically present at the output of the Processing Unit. In most cases, this will be identical to the configuration of the input channel cluster. The bmControls field indicates which chorus-related Controls are effectively implemented in the Chorus Processing Unit. The following table outlines the Chorus Processing Unit descriptor. It is identical to the common Processing Unit descriptor, except for some field values. It is repeated here for clarity. Table 4-13 Chorus Processing Unit Descriptor Offset Field Size Value Description 0 bLength 1 Number Size of this descriptor, in bytes 14+n 1 bDescriptorType 1 Constant CS_INTERFACE descriptor type. 2 bDescriptorSubtype 1 Constant PROCESSING_UNIT descriptor subtype. 3 bUnitID 1 Number Constant uniquely identifying the Unit within the audio function. This value is used in all requests to address this Unit. 4 wProcessType 2 Constant CHORUS_PROCESS process type. 6 bNrInPins 1 Number Number of Input Pins of this Unit 1 7 bSourceID 1 Number ID of the Unit or Terminal to which the Input Pin of this Processing Unit is connected. 8 bNrChannels 1 Number Number of logical output channels in the output channel cluster of the Processing Unit. 9 wChannelConfig 2 Bitmap Describes the spatial location of the logical channels in the output channel cluster of the Processing Unit. 11 iChannelNames 1 Index Index of a string descriptor, describing the name of the first logical channel in the output channel cluster of the Processing Unit. 12 bControlSize 1 Number Size, in bytes, of the bmControls field n 13 bmControls n Bitmap A bit set to 1 indicates that the mentioned Control is supported D0 Enable Processing. D1 Chorus Level. D2 Chorus Modulation Rate. D3 Chorus Modulation Depth. D4..(n*8-1) Reserved USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 54 Offset Field Size Value Description 13+n iProcessing 1 Index Index of a string descriptor, describing this Processing Unit. 4.3.2.6.6 Dynamic Range Compressor Processing Unit Descriptor The wProcessType field of the common Processing Unit descriptor contains the value DYN_RANGE_COMP_PROCESS. (See Section A.7, “Processing Unit Process Types”) The Dynamic Range Compressor Processing Unit has a single Input Pin. Therefore, the bNrInputs field must contain the value 1. The bNrChannels, wChannelConfig, and iChannelNames fields together constitute the output cluster descriptor of the Dynamic Range Compressor Processing Unit. It describes which logical channels are physically present at the output of the Processing Unit. In most cases, this will be identical to the configuration of the input channel cluster. The bmControls field indicates which Controls are effectively implemented in the Dynamic Range Compressor Processing Unit. The following table outlines the Dynamic Range Compressor Processing Unit descriptor. It is identical to the common Processing Unit descriptor, except for some field values. It is repeated here for clarity. Table 4-14 Dynamic Range Compressor Processing Unit Descriptor Offset Field Size Value Description 0 bLength 1 Number Size of this descriptor, in bytes 14+n 1 bDescriptorType 1 Constant CS_INTERFACE descriptor type. 2 bDescriptorSubtype 1 Constant PROCESSING_UNIT descriptor subtype. 3 bUnitID 1 Number Constant uniquely identifying the Unit within the audio function. This value is used in all requests to address this Unit. 4 wProcessType 2 Constant DYN_RANGE_COMP_PROCESS process type. 6 bNrInPins 1 Number Number of Input Pins of this Unit 1 7 bSourceID 1 Number ID of the Unit or Terminal to which the Input Pin of this Processing Unit is connected. 8 bNrChannels 1 Number Number of logical output channels in the output channel cluster of the Processing Unit. 9 wChannelConfig 2 Bitmap Describes the spatial location of the logical channels in the output channel cluster of the Processing Unit. USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 55 Offset Field Size Value Description 11 iChannelNames 1 Index Index of a string descriptor, describing the name of the first logical channel in the output channel cluster of the Processing Unit. 12 bControlSize 1 Number Size, in bytes, of the bmControls field n 13 bmControls n Bitmap A bit set to 1 indicates that the mentioned Control is supported D0 Enable Processing. D1 Compression Ratio. D2 MaxAmpl. D3 Threshold. D4 Attack time. D5 Release time. D6..(n*8-1) Reserved 13+n iProcessing 1 Index Index of a string descriptor, describing this Processing Unit. 4.3.2.7 Extension Unit Descriptor The Extension Unit is uniquely identified by the value in the bUnitID field of the Extension Unit descriptor (XUD). No other Unit or Terminal within the same alternate setting of the AudioControl interface may have the same ID. This value must be passed in the UnitID field of each request that is directed to the Extension Unit. The Extension Unit descriptor provides minimal information about the Extension Unit for a generic driver at least to notice the presence of vendor-specific components within the audio function. The wExtensionCode field may contain a vendor-specific code that further identifies the Extension Unit. If it is not used, it should be set to zero. The bNrInPins field contains the number of Input Pins (p) of the Extension Unit. The connectivity of the Input Pins is described via the baSourceID() array that contains p elements. The index i into the array is one-based and directly related to the Input Pin numbers. BaSourceID(i) contains the ID of the Unit or Terminal to which Input Pin i is connected. The cluster descriptors that describe the logical channels that enter the Extension Unit are not repeated here. It is up to the Host software to trace the connections ‘upstream’ to locate the cluster descriptors pertaining to the audio channel clusters. Because an Extension Unit can freely redefine the spatial locations of the logical output channels that are contained in its output cluster, there is a need for an output cluster descriptor. The bNrChannels, wChannelConfig, and iChannelNames fields characterize the cluster that leaves the Extension Unit over its single Output Pin (‘downstream’ connection). For a detailed description of the cluster descriptor, see Section 3.7.2.3, “Audio Channel Cluster Format.” The bmControls field is a bitmap, indicating the availability of certain audio Controls in the Extension Unit. For future expandability, the number of bytes occupied by the bmControls field is indicated in the bControlSize field. In general, all Controls are optional, except for the Enable Processing Control. This Control must be supported by every Extension Unit. The Enable Processing Control is used to bypass the entire functionality of the Extension Unit. This Control is mandatory for it allows a generic driver to operate the audio function without further knowledge of the internals of the Extension Unit. (Of course, the additional functionality provided by the 1 - 6 - 11 - 16 - 21 - 26 - 31 - 36 - 41 - 46 - 51 - 56 - 61 - 66 - 71 - 76 - 81 - 86 - 91 - 96 - 101 - 106 - 111 - 116 - 121 - 126 ここを編集
https://w.atwiki.jp/xbox360score/pages/788.html
Sam Max Save the World 項目数 12 総ポイント 200 難易度 ★☆☆☆☆ 製品情報 http //www.xbox.com/en-US/games/s/sammaxstwxbla/ 配信日 2008年6月17日 DL費用 1600MSP ジャンル アクション アーケード ☆国内未配信。 Culture Shock Complete Episode 1 - "Culture Shock". 20 Situation Comedy Complete Episode 2 - "Situation Comedy". 20 The Mole, Mob, and the Meatball Complete Episode 3 - "The Mole, the Mob, and the Meatball". 20 Abe Lincoln Must Die! Complete Episode 4 - "Abe Lincoln Must Die!". 20 Reality 2.0 Complete Episode 5 - "Reality 2.0". 20 Bright Side of the Moon Complete Episode 6 - "Bright Side of the Moon". 20 Saved The World! Complete all episodes of Sam Max Save the World. 30 Unicornucopia Heard 10 different comments about your unicorn. 10 Improviser In Episode 2, achieve six different cow identities that Mr Featherly will play along with. 10 Master Whacker In Episode 3, get a perfect score on Whack-Da-Ratz. 10 Easter Bunny In Episode 4, find the Easter Egg. 10 Mightier than the Sword In Episode 5, attempt to chop up everything in the text adventure with your +2 sword. 10 *SPOILERS* Achievement Walkthrough *SPOILERS* - XboxAchievements.com このガイドの通りにプレイすれば実績コンプ可能。
https://w.atwiki.jp/keroro00innovator/pages/1650.html
SAVED./Be mine! SAVED./Be mine! アーティスト 坂本真綾 発売日 2014年2月5日 レーベル フライングドッグ デイリー最高順位 1位(2014年2月8日) 週間最高順位 2位(2014年2月11日) 月間最高順位 5位(2014年2月) 年間最高順位 57位(2014年) 初動売上 14636 累計売上 25029 収録内容 曲名 タイアップ 視聴 1 SAVED. いなり、こんこん、恋いろは。 ED 2 Be mine! 世界征服~謀略のズヴィズダー~ OP 3 声 ランキング 週 月日 順位 変動 週/月間枚数 累計枚数 1 2/11 2 新 14636 14636 2 2/18 9 ↓ 3365 18001 3 2/25 18 ↓ 2089 20090 4 3/4 28 ↓ 1498 21588 2014年2月 5 新 21588 21588 5 3/11 ↓ 981 22569 6 3/18 765 23334 7 3/25 509 23843 8 4/1 508 24351 2014年3月 32 ↓ 2763 24351 9 4/8 319 24670 10 4/15 198 24868 11 4/22 161 25029 2014年4月 ↓ 678 25029 関連CD ビジュメニア 今日に恋色 はじまりの海 レプリカ
https://w.atwiki.jp/usb_audio/pages/59.html
原文:Audio Devices Rev. 2.0 Spec and Adopters Agreement(ZIP) USB Device Class Definition for Audio Devices Release 2.0 May 31, 2006 21 , e.g. piano, guitar, synthesizer, drum machine, etc. he expectation is of audio devices, such as a mixer panel. th e is sufficiently different from the above descriptions as to be ction Category Codes” of this specification. l ot 1 A C c a c t In g me audio function. 3.1 as defi sync y cloc o a c speed endpoi hat occurs at the beginning of every microframe to l lationship between different physical audio channels. Indeed, the virtual spatial position of an audio source is directly related to and influenced by the phase differences that are applied to the different physical audio channels used to reproduce the audio source. Therefore, it is imperative that USB audio functions respect the phase relationship among all related audio channels. However, the responsibility for maintaining the phase • Musical Instrument A musical instrument • Pro-Audio A device not typically used by consumers of audio, e.g. editing equipment, multitrack recording equipment, etc. •Audio/Video The audio from a device that also supplies simultaneous video where t that the audio is tightly coupled to the video, e.g. a camcorder, a DVD player, a television, etc. • Control Panel A device that is used to control the flow of audio through a system • Oer Any device whose primary purposconsidered a completely different form of device. The assigned codes can be found in Appendix A.7, “Audio Fun Alher Category codes are unused and reserved by this specification for future use. 0 Clock Domains 3. lock Domain is defined as a zone within which all sampling clocks are derived from the same master synchronous and their timing clok. Therefore, within the same Clock Domain, all sampling clocks are reltionship is constant. However, the sampling clocks can be at different sampling frequencies. The master clok can be generated in many different ways. An internal crystal could be the master clock, the USB star of frame (SOF) could be used or even an externally supplied clock could serve as a master clock. eneral, multiple different Clock Domains can exist within the sa 1 Audio Synchronization Types Each isochronous audio endpoint used in an AudioStreaming interface belongs to a synchronization type ned in Section 5 of the USB Specification. The following sections briefly describe the possible hronization types. 3.11.1 Asynchronous Asnchronous isochronous audio endpoints produce or consume data at a rate that is locked either to a k external to the USB or to a free-running internal clock. These endpoints cannot be synchronized t start of frame (SOF) or to any other clock in the USB domain. 3.11.2 Synchronous The clock system of synchronous isochronous audio endpoints can be controlled externally through SOF synhronization. Such an endpoint must lock its sample clock to the 1ms SOF tick. Optionally, a high-nt could lock its clock to the 125 μs SOF t improve accuracy. 3.11.3 Adaptive Adaptive isochronous audio endpoints are able to source or sink data at any rate within their operating range. This implies that these endpoints must run an internal process that allows them to match their naturadata rate to the data rate that is imposed at their interface. 3.12 Inter Channel Synchronization An important issue when dealing with audio, and 3-D audio in particular, is the phase re USB Device Class Definition for Audio Devices Release 2.0 May 31, 2006 22 dware, and all of the audio peripheral devices or l delay essed in number of (micro)frames and is due to the fact that the audio function must buffer at least one (micro)frame worth of samples to effectively remove Furthermore, some audio functions will introduce extra delay because and process the audio data streams (for example, compression and t of (micro)frame n) is the first sample of the packet it sends over USB during (micro)frame (n+δ). δ is the audio function’s internal delay expressed pplies for an audio sink function. The first sample in the packet, received ust be the first sample that is fully reproduced during (micro)frame ernal delays of all audio functions involved. Clock Entities and they are used to describe and manipulate the clock signals inside the audio function. inal e. ed together is a guarantee (by construction) that the protocol and format, used over these e Unit. Likewise, there is a Terminal descriptor (TD) for every Terminal in the audio function. In addition, these descriptors provide all e audio function. They fully describe how Terminals and relationis shared among the USB host software, har functions. To provide a manageable phase model to the host, an audio function is required to report its internafor every AudioStreaming interface. This delay is expr packet jitter within a (micro)frame. they need time to correctly interpret decompression). However, it is required that an audio function introduces only an integer number of (micro)frames of delay. In the case of an audio source function, this implies that the audio function must guarantee that the first sample it fully acquires after SOFn (star in (micro)frames. The same rule aover USB during (micro)frame n, m (n+δ). By following these rules, phase jitter is limited to ±1 audio sample. It is up to the host software to synchronize the different audio streams by scheduling the correct packets at the correct moment, taking into account the int 3.13 Audio Function Topology To be able to manipulate the physical properties of an audio function, its functionality must be divided into addressable Entities. Two types of such generic Entities are identified and are called Units and Terminals. In addition, a special type of Entity is defined. These Entities are called Units pvide the basic building blocks to fully descri robe most audio functions. Audio functions are built by connecting together several of these Units. A Unit has one or more Input Pins and a single Output Pin, where each Pin represents a cluster of logical audio channels inside the audio function (see Section 3.13.1, “Audio Channel Cluster”). Units are wired together by connecting their I/O Pins according to the required topology. Note that it is perfectly legal to connect the Output Pin of an Entity to multiple Input Pins residing on different other Entities, effectively creating a one-to-many connection. In addition, the concept of a Terminal is introduced. There are two types of Terminals. An Input Term (IT) is an Entity that represents a starting point for audio channels inside the audio function. An Output Terminal (OT) represents an ending point for audio channels. From the audio function’s perspective, a USB endpoint is a typical example of an Input or Output Terminal. It either provides data streams to the audio function (IT) or consumes data streams coming from the audio function (OT). Likewise, a Digital toAnalog converter, built into the audio function is represented as an Output Terminal in the audio function’smodel. Connection to the Terminal is made through its single Input or Output Pin. Input Pins of a Unit are numbered starting from one up to the total number of Input Pins on the Unit. The Output Pin number is always one. Input Terminals have only one Output Pin and its number is always onOutput Terminals have only one Input Pin and it is always numbered one. The information, traveling over I/O Pins is not necessarily of a digital nature. It is perfectly possible to use the Unit model to describe fully analog or even hybrid audio functions. The mere fact that I/O Pins are connect connections (analog or digital), is compatible on both ends. Every Unit in the audio function is fully described by its associated Unit descriptor (UD). The Unit descriptor contains all necessary fields to identify and describe th necessary information about the topology of thUnits are interconnected. This specification describes the following eight different types of standard Units and Terminals that are considered adequate to represent most audio functions available today and in the near future USB Device Class Definition for Audio Devices Release 2.0 May 31, 2006 23 re side le Clock Output pin. Clock Input Pins are lock gnal at en or Q. The values P and Q are fixed for a given Clock Multiplier. The new clock u f Clock Source, Clock Selector, and Clock Multiplier Entities, the most complex c nted and exposed to Host software. oc t Pins are fundamentally different from Input and Output Pins defined for Units and rry only clock signals and therefore cannot be connected to Unit or Terminal hey are only used to express clock circuitry topology. a single Clock Input Pin that is connected to a Clock Output Pin of a oc nal carried by that Clock Output Pin determines at which sampling frequency h y the Terminal is operating. ncies between which the Sampling Rate Converter Unit is converting. ch cribed by a Clock Entity descriptor (CED). The Clock Entity descriptor contains n tify and describe the Clock Entity. e etailed in Section 4, “Descriptors” of this document. at eric audio driver should be able to fully control the c • Input Terminal (IT) • Output Terminal (OT) • Mixer Unit (MU) • Selector Unit (SU) • Feature Unit (FU) • Sampling Rate Converter Unit • Effect Unit (EU) • Processing Unit (PU) • Extension Unit (XU) Besides Units and Terminals, the concept of a Clock Entity is introduced. Three types of Clock Entities adefined by this specification • Clock Source (CS) • Clock Selector (CX) • Clock Multiplier (CM) A Clock Source provides a certain sampling clock frequency to all or part of the audio function. A Clock Source can represent an internal sampling frequency generator, but it can also represent an external sampling clock signal input to the audio function. A Clock Source has a single Clock Output Pin that carries the sampling clock signal, represented by the Clock Source. The Clock Output Pin number is always one. A Clock Selector is used to select between multiple sampling clock signals that might be available inan audio function. It has multiple Clock Input Pins and a sing numbered starting from one up to the total number of Clock Input Pins on the Clock Selector. The COutput Pin number is always one. A Clock Multiplier is used to derive a new clock signal with a different frequency from the clock siits single Clock Input Pin. It does this by multiplying that clock signal frequency by a numerator P and thdividing it by a denominat signal is guaranteed to be synchronous with the input clock signal. A Clock Multiplier has one Input Pin and one Output Pin and their numbers are always one. Bysing a combination o clok systems can be represe Clk Input and Outpu Terminals. Clock Pins ca Input and Output Pins. T Each Input and Output Terminal has Clk Entity. The cloc k sigtheardware represented b Each Sampling Rate Converter Unit has two Clock Input Pins that are typically connected to the Clock Output Pins of two different Clock Entities. The clock signals carried by those Clock Output Pins determine the sampling freque Ea Clock Entity is des allecessary fields to iden Th descriptors are further d The ensemble of Unit descriptors, Terminal descriptors and Clock Entity descriptors provide a full description of the audio function to the Host. This information is typically retrieved from the device enumeration time. By parsing the descriptors, a gen audio function, except for the functionality represented by Extension Units. Those require vendor-specifiextensions to the audio class driver. USB Device Class Definition for Audio Devices Release 2.0 May 31, 2006 24 software must be notified of these changes to remain ‘in sync’ with the ck Sources, a Clock Selector, and two Clock onnected into the overall topology of the the onnector on the audio tion of a Headphone Out jack on the audio device. 6 lt is o nto the audio device and OT 11 could rding purposes. z for ut cy of 48 kHz to OT 9 for driving the headphone. Since all sampling freq he audio function are at all times derived from a single master clock (internal or external a The descri Entity is. F external co t indicates th the Output Pin of IT 1, Input Pin 2 is connected to the Output Important Note The complete set of audio function descriptors provides only a static initial description of the audio function. During operation, a number of events can happen that force the audio function to change its state. Host audio function at all times. An extensive interrupt mechanism is in place to report any and all state changes to Host software. Figure 3-2, “Inside the Audio Function” illustrates the concepts defined above. Using the iconic symbols defined further, it describes a hypothetical audio function that incorporates 16 Entities three Input Terminals, five Units, three Output Terminals, two Clo Multipliers. Each Entity has its unique ID (from 1 to 16) and descriptor that fully describes the functionality of the Entity and also how that particular Entity is c audio function. Input Terminal 1 (IT 1) could be the representation of a USB OUT endpoint used to stream audio fromHost to the audio device. IT 2 could be the representation of an analog Line-In c device whereas IT 3 could be an analog Microphone-In connector on the audio device. Selector Unit 4 (SU4) selects between the audio coming from the Host and the audio present at the Line In connector. Feature Unit 5 (FU 5) is then used to manipulate the audio (Volume, Bass, Treble …) before it is presented to Output Terminal 9 (OT 9). OT 9 could be the representa At the same time, all three input sources (USB OUT, Line In, and Mic In) are connected to a Mixer Unit(MU 6) that effectively mixes the three sources together. The output of the Mixer is then fed into a Processing Unit 7 (PU 7) that could perform some audio processing algorithm(s) on the mix. The resu in turn sent to FU 8 where some final adjustments to the audio (Volume …) are made. FU 8 is connected tOT 10 and OT 11. OT 10 could represent speakers incorporated i represent a USB IN endpoint used to send the processed audio to the Host for reco Clock Source 12 (CS 12) could represent an internal sampling frequency generator, running at 96 kHinstance. Clock Source 15 (CS 15) could be the representation of an external master sampling clock inpthat can be used to synchronize the device to an external source. Clock Selector 13 (CS 13) enables selection between the two available Clock Sources. The output of CS 13 provides a sampling frequency to IT 1, IT 2, IT3, OT 10, and OT 11 of 96 kHz. Clock Multiplier CM 14 further multiplies that clock signal by 0.5, providing a sampling frequen uencies used inside t ), ll audio streams in the audio function are synchronous. ptors, associated with each Entity clearly indicate to the Host what the exact nature of each or instance, the IT 2 descriptor contains a field that indicates to the Host that it represents an nnector on the device, used as an analog Line In. Likewise, the MU 6 descriptor has a field thaat its Input Pin 1 is connected to Pin of IT 2, and Input Pin 3 is connected to the Output Pin of IT 3. For further details on descriptor contents, refer to Section 4, “Descriptors” of this document. USB Device Class Definition for Audio Devices Audio Function Release 2.0 May 31, 2006 25 PU SU Descr.FU Descr.MU Descr Selector UnitFeature UnitMixer UnitProcessing Unit Feature Unit PU Descr.FU Descr.1234567891011USB OUTAnalogLine INOUT AnalogMic INHeadphone Speakers USB IN 12 Clock Source Clock Multiplier 14 15 ITITITIT Descr.IT Descr.IT Descr.OTOT OT OT Descr.OT Descr.OT Descr. Clock Source Clock Selector 13 CSD CSD CXD P/Q CMD Figure 3-2 Inside the Audio Function Inside an Entity, functionality is further described through Audio Controls. A Control typically provides access to a specific audio or clock property. Each Control has a set of attributes that can be manipulated or that present additional information on the behavior of the Control. A Control can have the following attributes • Current setting attribute • Range attribute triplet consisting of • Minimum setting attribute • Maximum setting attribute • Resolution attribute As an example, consider a Volume Control inside a Feature Unit. By issuing the appropriate Get requests, the Host software can obtain values for the Volume Control’s attributes and, for instance, use them to correctly display the Control on the screen. Setting the Volume Control’s current attribute allows the Host software to change the volume setting of the Volume Control. Additionally, each Entity in an audio function can have a memory space attribute. This attribute optionally provides generic access to the internal memory space of the Entity. This could be used to implement vendor-specific control of an Entity through generically provided access. information. Inside the audio function, complete abstraction is made of the actual physical representation 3.13.1 Audio Channel Cluster An audio channel cluster is a grouping of audio channels that carry tightly related synchronous audio 1 - 6 - 11 - 16 - 21 - 26 - 31 - 36 - 41 - 46 - 51 - 56 - 61 - 66 - 71 - 76 - 81 - 86 - 91 - 96 - 101 - 106 - 111 - 116 - 121 - 126 - 131 - 136 - 141 ここを編集