約 1,990,491 件
https://w.atwiki.jp/d4linux/pages/16.html
W-SIM 概要 impress の分解記事によると、Prolific のPL2303HX というチップが W-SIM のインタフェースに使われているらしい。これは、昔あった PL2303H の互換チップということなのかな。 http //www.locsense.com.tw/support/files/%5CIO%20Cable%5CPL-2303HX%5CDocuments%5CDatasheet%5Cds_pl2303HXD_v1.1.pdf (データシート) http //www.prolific.com.tw/support/files/%5CIO%20Cable%5CPL-2303HX%5CDocuments%5CApplication%20Notes%5Can_PL2303_productguide_v10B.pdf (Product Selection Guide) ちなみに、DD(WS002IN) や IO-DATA の USB-WSIM 内蔵のチップは、PL2303X らしいので、ちょっと違う。(小ネタ) ドライバ ubuntu デフォルト状態では、W-SIM は認識されていないよう。分解記事 などを見ると、W-SIM のシリアルインターフェースには pl2303 を使用しているようなので、USB-WSIM on Linux を参考にカーネルソースにパッチを当てて見たところ、モジュールがロードされるようになった。 $lsmod | grep pl2303 pl2303220200 usbserial358161pl2303 usbcore1461568uvcvideo,hci_usb,pl2303,usbserial,usbhid,ehci_hcd,uhci_hcd メモ:単にベンダーIDとプロダクトIDを認識させるだけなら、modules.conf を書き換えれば行ける? 無事に /dev/ttyUSB0 が出来たのだが、minicom で叩いても無反応。何がおかしいのか? IO-DATA の USB-WSIM を上記のパッチで試したところ問題なく動作しているよう。こちらは、W-SIM の挿抜にも反応しているので、PL2303X と PL2303HX の違いか、何か別のハードがからんでいる? しかし PL2303 ドライバは、PL2303HX にもきちんと対応しているよう。 ん?これ かな? W-SIMもドライバそのものは入っていても起動そのものを専用ソフトで起こしてるらしく それが動かないので現状どうにもならんのです。 つまり、W-SIM を起動するプロセスが別途必要なのかな。WSIM のオンオフをソフトウェア制御で出来るようにしてるのと関係あるのかも。ざっくり調べてみても、D4 における W-SIM の起動の仕組みについて言及している人は居ないみたい。自力で解決するしかないかな。 USB-WSIM に WSIM を挿して起動すると、minicom で AT コマンドに反応する。WSIM を挿抜すると /dev/ttyUSB1 が出来たり消えたりする。dmesg にもその旨記録されている。 W-SIM を挿した状態で Ubuntu を起動すると、右上のアンテナLEDが点灯状態になるが、minicom では特に反応がない。この状態から、W-SIM を挿抜するとアンテナLEDが消灯する。minicom でも依然反応無し。dmesg にも変化無し。/dev/ttyUSB0 にも変化無し。 PL2303 のデータシートを見ると、GPIO が4本出ている。W-SIM のピンアサインには、シリアル通信と音声用のピンのほかに、IF通知信号と、状態表示用のピンが合わせて4本。これつながってたりしなくね?というか俺ならつなぐな。ここ叩く方法探してみようか。- pl2303.c にはそれらしい記載無し。 あと、Windows で確認したんだけど、プロダクトIDとベンダーID間違えてるんじゃないの?という疑いあり。 動作確認 設定 参考情報 ■JF http //www.linux.or.jp/JF/JFdocs/Modem-HOWTO.html http //www.linux.or.jp/JF/JFdocs/Serial-HOWTO.html ■SPG-POS http //www.easysw.com/~mike/serial/serial.html ■The Linux Serial Programming HOWTO http //www.linux.or.jp/JF/JFdocs/Serial-Programming-HOWTO.html ■USB-WSIM on Linux http //d.hatena.ne.jp/Kuruma/20080520/1211245595 Linux環境でIO-DATA USB-WSIMを使う人向け情報。中のコンバータは pl2303 (USB-シリアルコンバータ) なので、カーネル側で製品コードを追加してあげたら全く問題なく動くようになった。 ■Willcom WS002IN "DD"をUbuntu Linux 7.04で使う http //niw.at/articles/2007/06/26/ws002in_ubuntu/ja ■[N810]Advanced/W-ZERO3[es]をNOKIA N810のモデムとして認識させるKernel Module http //moyashi.air-nifty.com/hitori/2008/05/n810advancedwze_5366.html ■osdev-j http //wiki.osdev.info/?W-SIM AT コマンド解析など。 ■ウィルコムコアモジュール研究所 http //phs.cside.com/wcmf/index.php?n=LowerCate cID=1 色々リサーチ ■W-SIM フリークス http //www.kako.com/neta/2008-003/2008-003.html 色々リサーチ ■iPod touch に W-SIM を接続してみた http //novi.10.dtiblog.com/blog-entry-215.html 製作記。 接続は成功しているよう。 ■マイコン工作実験日記 http //blog.goo.ne.jp/sirius506 W-SIM ジャケット製作 音声通話にも成功らしい。 http //blog.goo.ne.jp/sirius506/c/2db7e3b844d4103cea7dac1ef2ebd058/7 この最初の部分で音声がらみの制御について書かれているよう。
https://w.atwiki.jp/kira-show/pages/136.html
Radio_TOP→♪ animate_TOP→♪ メイン・パーソナリティ 鳥海浩輔ღ 放送回 タイトル ゲスト/パーソナリティ 備考 Fight_1 「いきなりラフだねぇ(笑)、そういう方向性でいいんだ!」「大丈夫です!」 緑川 光 2008年08月21日放送 Fight_2 「実は女です」「はい!俺はじめての女役です!」 福山 潤 2008年09月04日放送 Fight_3 「正しい日本語、美しい日本語でやっていきたいなと思ったりしています(笑)」 福山 潤 2008年09月18日放送 Fight_4 「処刑人だからさ、ラジオで違反した奴らを処刑していきます」「スタッフ一人ずつ減っていくかもしれない(笑」 小西克幸谷山紀章 2008年10月02日放送 Fight_5 「ホント、色々やりたいことがあるぞ!俺には!」 「じゃあ、川原からお届けする感じで!」 小西克幸谷山紀章 2008年10月16日放送 Fight_6 「……やっぱり、鳥さん最高だよ」「本当?お前も最高だぜ」 神谷浩史 2008年10月30日放送
https://w.atwiki.jp/b-spirit/
B-SPIRIT@Wiki B-SPIRIT@Wikiへようこそ! Wikiは誰でも自由に情報を追加・編集できる、新しいシステムです。 Wikiを作ってゆくのは利用者の皆さん、あなた達です。 皆さんですばらしいWikiを作っていきましょう。 このWikiは序章にしか過ぎません! 今後、このWikiを元に「正式版・B-SPIRIT」を 作成する予定です。皆様それまでに多くの情報をお願いいたします。 お知らせ Wikiスタッフにこまっち、ザ サウスポーの2人を採用しました。 情報提供はこまっちにメールしてください。y.komaki0jcom.home.ne.jpです。0→@に変更してください。 更新履歴 取得中です。 サイト内検索 検索 Since 2005/04/10
https://w.atwiki.jp/mini9/pages/41.html
USBストレージへWindowsXPをインストール ※ツールの使い方などについて説明不足な点があるので誰か修正してください 用意するもの XPのインストール先となるUSBストレージ mini9で起動できればUSBメモリでも、SDHC+USBリーダでも、何でもよいはず (推奨 4GB以上の容量) USB CDドライブ mini9に接続してブータブルCDが起動できれば何でもよいはず XPのインストールCD XPモデルの付属のディスクで動作確認したが、何でもよいはず (推奨 XPモデル付属のディスク) nLiteとnLiteが動作する環境 nLiteが動作して、CDが焼ければ何でもよいはず(mini9でなくてもよい) Linux環境 mini9でブートできてddとgpartedが使えれば何でもよいはず (推奨 Ubuntu Desktop 日本語 Remix CD) SSD 付属のSSDでもBUFFALOでもRunCoreでも何でもよいはず (推奨 購入時に付属していたSSD) 必要であれば、SSDのバックアップを保存するためのUSBストレージ 以上 手順 とりあえず、BIOS設定をデフォルトにする 前準備1 Linux環境がなければ準備する http //www.ubuntulinux.jp/からUbuntuのisoイメージを取得 取得したisoイメージをCDに焼く 以上 前準備2 必要であればSSDをバックアップする Linux環境で起動する SSDが/dev/sdaとして認識されたと仮定 バックアップ用USBストレージを接続する バックアップ用USBストレージが/media/usbdiskに自動マウントされたと仮定 コンソールから下記コマンドを実行し、SSDのイメージを作成 sudo dd if=/dev/sda of=/media/usbdisk/ssd.img 以上 ステップ1 インストール用ディスク作成 XPのインストールCDの内容をローカルディスクにコピー nLiteを起動し、ローカルディスクにコピーしたXPからディスクを作成する画面まで進める(まだ焼かない) USBブート推進協議会の「WindowsXP をUSBメモリにインストールする」-「クリーンインストールする方法」の2〜11を参考にファイルを編集する nLiteでディスクを作成する 以上 ※infファイルはBOM付きUTF-16エンコードのようなので、それらを扱えるテキストエディタを使用する必要があるかもしれません ステップ2 WindowsXPをSSDにインストール ステップ1で作成したディスクを使って、SSDへのインストールを開始する 先頭のFAT領域以外はすべて解放して(なければ気にしない)、インストール先は4000MBでインストール開始 インストール完了し、普通に起動するところまで進める ページファイルをゼロに設定する システム復元を停止する スクリーンセイバーをOFFにする インストール先USBストレージを接続する Hitachi Microdrive Filterを使って、インストール先USBストレージをHDD化する 再起動し、HDD化できていることを確認する 以上 ステップ3 WindowsXPをUSBストレージにコピー Linux環境で起動する SSDが/dev/sdaとして認識されたと仮定 インストール先USBストレージを接続する インストール先USBストレージが/dev/sdbとして認識されたと仮定 コンソールから下記コマンドを実行し、gpartedを起動 sudo gparted gpartedでインストール先USBストレージの領域を全削除 コンソールから下記コマンドを実行し、ステップ2でインストールしたWindowsXPをコピー(4100はディスクの先頭〜インストール先パーティションの末尾までのサイズより大きくする) sudo dd if=/dev/sda of=/dev/sdb bs=1M count=4100 必要であれば再びgpartedを起動し、インストール先USBストレージのパーティションをリサイズ 以上 ステップ4 USBストレージから起動 なんでもいいからSSDが接続された状態で、インストール先USBストレージから起動する 起動成功したら好きに使う 以上 後処理 必要であればSSDの復元 Linux環境で起動する SSDが/dev/sdaとして認識されたと仮定 バックアップ用USBストレージを接続する バックアップ用USBストレージが/media/usbdiskに自動マウントされたと仮定 コンソールから下記コマンドを実行し、SSDのイメージを復元 sudo dd if=/media/usbdisk/ssd.img of=/dev/sda 以上
https://w.atwiki.jp/iphonevswm/pages/24.html
【 T-01AのUSB充電 】 気がつけばWindowsMobile機を買っていました。 movaからの乗り換えです。 電話機として非常に使いづらく、 同時に買い換えた妻の携帯を横目で見ながら少々後悔している日々です。 http //k.hatena.ne.jp/keywordblog/T-01A?date=20090916
https://w.atwiki.jp/usb_audio/pages/34.html
原文:Audio Device Document 1.0(PDF) USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 31 Table 3-1 Status Word Format Offset Field Size Value Description 0 bStatusType 1 Bitmap D7 Interrupt PendingD6 Memory Contents ChangedD5..4 ReservedD3..0 Originator0 = AudioControl interface1 = AudioStreaming interface2 = AudioStreaming endpoint3..15 = Reserved 1 bOriginator 1 Number ID of the Terminal, Unit, interface, orendpoint that reports the interrupt. 3.7.2 AudioStreaming Interface AudioStreaming interfaces are used to interchange digital audio data streams between the Host and the audio function. They are optional. An audio function can have zero or more AudioStreaming interfaces associated with it, each possibly carrying data of a different nature and format. Each AudioStreaming interface can have at most one isochronous data endpoint. This construction guarantees a one-to-one relationship between the AudioStreaming interface and the single audio data stream, related to the endpoint. In some cases, the isochronous data endpoint is accompanied by an associated isochronous synch endpoint for synchronization purposes. The isochronous data endpoint is required to be the first endpoint in the AudioStreaming interface. The synch endpoint always follows its associated data endpoint. An AudioStreaming interface can have alternate settings that can be used to change certain characteristics of the interface and underlying endpoint. A typical use of alternate settings is to provide a way to change the bandwidth requirements an active AudioStreaming interface imposes on the USB. By incorporating a low-bandwidth or even zero-bandwidth alternate setting for each AudioStreaming interface, a device offers to the Host software the option to temporarily relinquish USB bandwidth by switching to this lowbandwidth alternate setting. If such an alternate setting is implemented, it must be the default alternate setting (alternate setting zero). A zero-bandwidth alternate setting can be implemented by specifying zero endpoints in the standard AudioStreaming interface descriptor. All other interface and endpoint descriptors (both standard and class-specific) need not be specified in this case. The AudioStreaming interface is essentially used to provide an access point for the Host software (drivers) to manipulate the behavior of the physical interface it represents. Therefore, even external connections to the audio function (S/PDIF interface, analog input, etc.) can be represented by an AudioStreaming interface so that the Host software can control certain aspects of those connections. This type of AudioStreaming interface has no associated USB endpoints. The related audio data stream is not using USB as a transport medium. In addition, the concepts of dynamic interfaces as described in the Universal Serial Bus Class Specification can be used to notify the Host software that changes have occurred on the external connection. This is analogous to switching alternate settings on an AudioStreaming interface with USB endpoints, except that the switch is now device-initiated instead of Host-initiated. As an example, consider an S/PDIF connection to an audio function. If nothing is connected to this external S/PDIF interface, the AudioStreaming interface is idle and reports itself as being dynamic and non-configured (bInterfaceClass=0x00). If the user connects a standard IEC958 signal to the audio function, the S/PDIF receiver inside the audio function detects this and notifies the Host that the AudioStreaming interface has switched to its IEC958 mode (alternate setting x). If, on the other hand, an USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 32 IEC1937 signal, carrying MPEG-encoded audio is connected, the AudioStreaming interface switches to the appropriate setting (alternate setting y) to handle the MPEG decoding process. For every isochronous OUT or IN endpoint defined in any of the AudioStreaming interfaces, there must be a corresponding Input or Output Terminal defined in the audio function. For the Host to fully understand the nature and behavior of the connection, it must take into account the interface- and endpoint-related descriptors as well as the Terminal-related descriptor. 3.7.2.1 Isochronous Audio Data Stream Endpoint In general, the data streams that are handled by an isochronous audio data endpoint do not necessarily map directly to the logical channels that exist within the audio function. As an example, consider a “stereo” audio data stream that contains audio data, encoded in Dolby Prologic format. Although there is only one data stream, carrying interleaved samples for Left and Right (or more precisely LT and RT), these two channels carry information for four logical channels (Left, Right, Center, and Surround). Other examples include cases in which multiple logical audio channels are compressed into a single data stream. The format of such a data stream can be entirely different from the native format of the logical channels (for example, 256 Kbits/s MPEG1 stereo audio as opposed to 176.4 Kbytes/s 16 bit stereo 44.1 kHz audio). Therefore, to describe the data transfer at the endpoint level correctly, the notion of logical channel is replaced by the notion of audio data stream. It is the responsibility of the AudioStreaming interface which contains the OUT endpoint to convert between the audio data stream and the embedded logical channels before handing the data over to the Input Terminal. In many cases, this conversion process involves some form of decoding. Likewise, the AudioStreaming interface which contains the IN endpoint must convert logical channels from the Output Terminal into an audio data stream, often using some form of encoding. Consequently, requests to control properties that exist within an audio function, such as volume or mute cannot be sent to the endpoint in an AudioStreaming interface. An AudioStreaming interface operates on audio data streams and is unaware of the number of logical channels it eventually serves. Instead, these requests must be directed to the proper audio function’s Units or Terminals via the AudioControl interface. As already mentioned, an AudioStreaming interface can have zero or one isochronous audio data endpoint. If multiple synchronous audio channels must be communicated between Host and audio function, they must be clustered into one audio channel cluster by interleaving the individual audio data, and the result can be directed to the single endpoint. Furthermore, a single synch endpoint, if needed, can service the entire cluster. In this way, a minimum number of endpoints are consumed to transport related data streams. If an audio function needs more than one cluster to operate, each cluster is directed to the endpoint of a separate AudioStreaming interface, belonging to the same Audio Interface Collection (all servicing the same audio function). If there is a need to manipulate a number of AudioStreaming interfaces as a whole, these interfaces can be tied together. The techniques for associating interfaces, described in the Universal Serial Bus Class Specification should be used to create the binding. 3.7.2.2 Isochronous Synch Endpoint For adaptive audio source endpoints and asynchronous audio sink endpoints, an explicit synch mechanism is needed to maintain synchronization during transfers. For details about synchronization, see Section 5, “USB Data Flow Model,” in the USB Specification and the relevant parts of the Universal Serial Bus Class Specification. The information carried over the synch path consists of a 3-byte data packet. These three bytes contain the Ff value in a 10.14 format as described in Section 5.10.4.2, “Feedback” of the USB Specification. Ff represents the average number of samples the endpoint must produce or consume per frame to match the desired sampling frequency Fs exactly. USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 33 A new Ff value is available every 2(10 – P) ms (frames) where P can range from 1 to 9, inclusive. The sample clock Fs is always derived from a master clock Fm in the device. P is related to the ratio between those clocks through the following relationship 数式 In worst case conditions, only Fs is available and Fm = Fs, giving P = 1 because one can always use phase information to resolve the estimation of Fs within half a clock cycle. An adaptive audio source IN endpoint is accompanied by an associated isochronous synch OUT endpoint that carries Ff. An asynchronous audio sink OUT endpoint is accompanied by an associated isochronous synch IN endpoint. For adaptive IN endpoints and asynchronous OUT endpoints, the standard endpoint descriptor provides the bSynchAddress field to establish a link to the associated synch endpoint. It contains the address of the synch endpoint. The bSynchAddress field of the synch standard endpoint descriptor must be set to zero. As indicated earlier, a new Ff value is available every 2(10 – P) frames with P ranging from 1 to 9. The bRefresh field of the synch standard endpoint descriptor is used to report the exponent (10-P) to the Host. It can range from 9 down to 1. (512 ms down to 2 ms) 3.7.2.3 Audio Channel Cluster Format An audio channel cluster is a grouping of logical audio channels that share the same characteristics like sampling frequency, bit resolution, etc. Channel numbering in the cluster starts with channel one up to the number of channels in the cluster. The virtual channel zero is used to address a master Control in a Unit, effectively influencing all the channels at once. The maximum number of independent channels in an audio channel cluster is limited to 254. Indeed, Channel zero is used to reference the master channel and code 0xFF (255) is used in requests to indicate that the request parameter block holds values for all available addressed Controls. For further details, refer to Section 5.2.2, “AudioControl Requests” and the sections that follow, describing the second form of requests. In many cases, each channel in the audio cluster is also tied to a certain location in the listening space. A trivial example of this is a cluster that contains Left and Right logical audio channels. To be able to describe more complex cases in a manageable fashion, this specification imposes some limitations and restrictions on the ordering of logical channels in an audio channel cluster. There are twelve predefined spatial locations · Left Front (L) · Right Front (R) · Center Front (C) · Low Frequency Enhancement (LFE) [Super woofer] · Left Surround (LS) · Right Surround (RS) · Left of Center (LC) [in front] · Right of Center (RC) [in front] · Surround (S) [rear] · Side Left (SL) [left wall] · Side Right (SR) [right wall] · Top (T) [overhead] If there are logical channels present in the audio channel cluster that correspond to some of the previously defined spatial positions, then they must appear in the order specified in the above list. For instance, if a USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 34 cluster contains logical channels Left, Right and LFE, then channel 1 is Left, channel 2 is Right, and channel 3 is LFE. To characterize an audio channel cluster, a cluster descriptor is introduced. This descriptor is embedded within one of the following descriptors · Input Terminal descriptor · Mixer Unit descriptor · Processing Unit descriptor · Extension Unit descriptor The cluster descriptor contains the following fields · bNrChannels a number that specifies how many logical audio channels are present in the cluster. · wChannelConfig a bit field that indicates which spatial locations are present in the cluster. The bit allocations are as follows § D0 Left Front (L) § D1 Right Front (R) § D2 Center Front (C) § D3 Low Frequency Enhancement (LFE) § D4 Left Surround (LS) § D5 Right Surround (RS) § D6 Left of Center (LC) § D7 Right of Center (RC) § D8 Surround (S) § D9 Side Left (SL) § D10 Side Right (SR) § D11 Top (T) § D15..12 Reserved · Each bit set in this bit map indicates there is a logical channel in the cluster that carries audio information, destined for the indicated spatial location. The channel ordering in the cluster must correspond to the ordering, imposed by the above list of predefined spatial locations. If there are more channels in the cluster than there are bits set in the wChannelConfig field, (i.e. bNrChannels [Number_Of_Bits_Set]), then the first [Number_Of_Bits_Set] channels take the spatial positions, indicated in wChannelConfig. The remaining channels have ‘non-predefined’ spatial positions (positions that do not appear in the predefined list). If none of the bits in wChannelConfig are set, then all channels have non-predefined spatial positions. If one or more channels have non-predefined spatial positions, their spatial location description can optionally be derived from the iChannelNames field. · iChannelNames index to a string descriptor that describes the spatial location of the first nonpredefined logical channel in the cluster. The spatial locations of all remaining logical channels must be described by string descriptors with indices that immediately follow the index of the descriptor of the first non-predefined channel. Therefore, iChannelNames inherently describes an array of string descriptor indices, ranging from iChannelNames to (iChannelNames + (bNrChannels- [Number_Of_Bits_Set]) - 1) Example 1 An audio channel cluster that carries Dolby Prologic logical channels has the following cluster descriptor Table 3-2 Dolby Prologic Cluster Descriptor Offset Field Size Value Description USB Device Class Definition for Audio Devices Release 1.0 March 18, 1998 35 Offset Field Size Value Description 0 bNrChannels 1 4 There are 4 logical channels in the cluster. 1 wChannelConfig 2 0x0107 Left, Right, Center and Surround are present. 3 iChannelNames 1 Index Because there are no non-predefined logical channels, this index must be set to 0. Example 2 A hypothetical audio channel cluster inside an audio function could carry Left, Left Surround, Left of Center, and two auxiliary channels that contain each a different weighted mix of the Left, Left Surround and Left of Center channels. The corresponding cluster descriptor would be Table 3-3 Left Group Cluster Descriptor Offset Field Size Value Description 0 bNrChannels 1 5 There are 5 logical channels in the cluster 1 wChannelConfig 2 0x0051 Left, Left Surround, Left of Center and two undefined channels are present. (bNrChannels [Number_Of_Bits_Set]) 3 iChannelNames 1 Index Optional index of the first non-predefined string descriptor Optional string descriptors String (Index) = ‘Left Down Mix 1’ String (Index+1) = ‘Left Down Mix 2’ 3.7.2.4 Audio Data Format The format used to transport audio data over the USB is entirely determined by the code, located in the wFormatTag field of the class-specific interface descriptor. Therefore, each defined Format Tag must document in detail the audio data format it uses. Consequently, format-specific descriptors are needed to fully describe the format. For details about the predefined Format Tags and associated data formats and descriptors, see the separate document, USB Audio Data Formats, that is considered part of this specification. Vendor-specific protocols must be fully documented by the manufacturer. 1 - 6 - 11 - 16 - 21 - 26 - 31 - 36 - 41 - 46 - 51 - 56 - 61 - 66 - 71 - 76 - 81 - 86 - 91 - 96 - 101 - 106 - 111 - 116 - 121 - 126 ここを編集
https://w.atwiki.jp/usb_audio/pages/24.html
原文:Audio Data Formats 1.0(PDF) USB Device Class Definition for Audio Data Formats Release 1.0 March 18, 1998 26 Offset Field Size Value Description 0 bLowScale 1 Number The setting for the attribute of the lowlevel Scaling Control. 1 bHighScale 1 Number The setting for the attribute of the highlevel Scaling Control. 2.4 Type III Formats These formats are based upon the IEC1937 standard. The IEC1937 standard describes a method to transfer non-PCM encoded audio bitstreams over an IEC958 digital audio interface, together with the transfer of the accompanying “Channel Status” and “User Data.” The IEC958 standard specifies a widely used method of interconnecting digital audio equipment with twochannel linear PCM audio. The IEC1937 standard describes a way in which the IEC958 interface shall be used to convey non-PCM encoded audio bit streams for consumer applications. The same basic techniques used in IEC1937 are reused here to convey non-PCM encoded audio bit streams over a Type III formatted audio stream. 2.4.1 Type III Format Type Descriptor The Type III Format Type is identical to the Type I PCM Format Type, set up for two-channel 16-bit PCM data. It therefore uses two audio subframes per audio frame. The subframe size is two bytes and the bit resolution is 16 bits. The Type III Format Type descriptor is identical to the Type I Format Type descriptor but with the bNrChannels field set to two, the bSubframeSize field set to two and the bBitResolution field set to 16. All the techniques used to correctly transport Type I PCM formatted streams over USB equally apply to Type III formatted streams. The non-PCM encoded audio bitstreams that are transferred within the basic 16-bit data area of the IEC1937 subframes (time-slots 12 [LSB] to 27 [MSB]) are placed unaltered in the two available 16-bit audio subframes per audio frame of the Type III formatted USB stream. The additional information in the IEC1937 subframes (channel status, user bits etc.) is discarded. Refer to the IEC1937 standard for a detailed description of the exact contents of the subframes. The layout of the Type III Format Type descriptor is given here for clarity. All preassigned fields have been filled in. Table 2-23 Type III Format Type Descriptor Offset Field Size Value Description 0 bLength 1 Number Size of this descriptor, in bytes 8+(ns*3) 1 bDescriptorType 1 Constant CS_INTERFACE descriptor type. 2 bDescriptorSubtype 1 Constant FORMAT_TYPE descriptor subtype. 3 bFormatType 1 Constant FORMAT_TYPE_III. Constant identifying the Format Type the AudioStreaming interface is using. 4 bNrChannels 1 Number Indicates the number of ‘virtual’ physical channels in the audio data stream. Must be set to two. USB Device Class Definition for Audio Data Formats Release 1.0 March 18, 1998 27 Offset Field Size Value Description 5 bSubframeSize 1 Number The number of bytes occupied by one audio subframe. Must be set to 2. 6 bBitResolution 1 Number The number of effectively used bits from the available bits in an audio subframe. 7 bSamFreqType 1 Number Indicates how the sampling frequency can be programmed 0 Continuous sampling frequency1..255 The number of discrete sampling frequencies supported by the isochronous data endpoint of the AudioStreaming interface (ns) 8... See sampling frequency tables, below. Depending on the value in the bSamFreqType field, the layout of the next part of the descriptor is as shown in the following tables. Table 2-24 Continuous Sampling Frequency Offset Field Size Value Description 8 tLowerSamFreq 3 Number Lower bound in Hz of the sampling frequency range for this isochronous data endpoint. 11 tUpperSamFreq 3 Number Upper bound in Hz of the sampling frequency range for this isochronous data endpoint. Table 2-25 Discrete Number of Sampling Frequencies Offset Field Size Value Description 8 tSamFreq [1] 3 Number Sampling frequency 1 in Hz for this isochronous data endpoint. … … … … … 8+(ns-1)*3 tSamFreq [ns] 3 Number Sampling frequency ns in Hz for this isochronous data endpoint. Note In the case of adaptive isochronous data endpoints that support only a discrete number of sampling frequencies, the endpoint must at least tolerate ±1000 PPM inaccuracy on the reported sampling frequencies. USB Device Class Definition for Audio Data Formats Release 1.0 March 18, 1998 28 3 Adding New Audio Data Formats Adding new Audio Data Formats to this specification is achieved by proposing a fully documented Audio Data Format to the Audio Device Class Working Group. Upon acceptance, they will register the new Audio Data Format (attribute a unique wFormatTag) and update this document accordingly. This process will also guarantee that new releases of generic USB audio drivers will support the newly registered Audio Data Formats. It is always possible to use vendor-specific definitions if the above procedure is considered unsatisfactory. USB Device Class Definition for Audio Data Formats Release 1.0 March 18, 1998 29 Appendix A. Additional Audio Device Class Codes A.1 Audio Data Format Codes A.1.1 Audio Data Format Type I Codes Table A-1 Audio Data Format Type I Codes Name wFormatTag TYPE_I_UNDEFINED 0x0000 PCM 0x0001 PCM8 0x0002 IEEE_FLOAT 0x0003 ALAW 0x0004 MULAW 0x0005 A.1.2 Audio Data Format Type II Codes Table A-2 Audio Data Format Type II Codes Name wFormatTag TYPE_II_UNDEFINED 0x1000 MPEG 0x1001 AC-3 0x1002 A.1.3 Audio Data Format Type III Codes Table A-3 Audio Data Format Type III Codes Name wFormatTag TYPE_III_UNDEFINED 0x2000 IEC1937_AC-3 0x2001 IEC1937_MPEG-1_Layer1 0x2002 IEC1937_MPEG-1_Layer2/3 orIEC1937_MPEG-2_NOEXT 0x2003 IEC1937_MPEG-2_EXT 0x2004 IEC1937_MPEG-2_Layer1_LS 0x2005 USB Device Class Definition for Audio Data Formats Release 1.0 March 18, 1998 30 Name wFormatTag IEC1937_MPEG-2_Layer2/3_LS 0x2006 A.2 Format Type Codes Table A-4 Format Type Codes Format Type Code Value FORMAT_TYPE_UNDEFINED 0x00 FORMAT_TYPE_I 0x01 FORMAT_TYPE_II 0x02 FORMAT_TYPE_II 0x03 A.3 Format-Specific Control Selectors A.3.1 MPEG Control Selectors Table A-5 MPEG Control Selectors Control Selector Value MPEG_CONTROL_UNDEFINED 0x00 MP_DUAL_CHANNEL_CONTROL 0x01 MP_SECOND_STEREO_CONTROL 0x02 MP_MULTILINGUAL_CONTROL 0x03 MP_DYN_RANGE_CONTROL 0x04 MP_SCALING_CONTROL 0x05 MP_HILO_SCALING_CONTROL 0x06 A.3.2 AC-3 Control Selectors Table A-6 AC-3 Control Selectors Control Selector Value AC_CONTROL_UNDEFINED 0x00 AC_MODE_CONTROL 0x01 AC_DYN_RANGE_CONTROL 0x02 AC_SCALING_CONTROL 0x03 1 - 6 - 11 - 16 - 21 - 26 - 31 ここを編集
https://w.atwiki.jp/xbox360hack/pages/21.html
Q Xbox 360本体のみでDVDファームウェアをiXtreme化することはできませんか? A できません。一度分解して、PCと接続し、PCからiXtreme化を行う必要があります。また、iXtremeのバージョンアップ時もXbox 360本体のみでは行えません。 Q どのドライブでiXtremeへの書き換えが行えますか? A 2009年1月現在、Xbox 360に内蔵されているすべてのドライブで書き換えが可能になっています。ただし、LiteOnドライブは、ドライブの分解や、ドライブキーの吸い出しツールが必要になり、若干他のドライブと比べて面倒です。 Q 本体を分解せずにiXtremeへの書き換えはできませんか? A できません。iXtremeへ書き換える際にPCとXbox 360の内蔵DVDドライブを接続する必要があり、そのため本体の分解が必要です。 Q 私のPCは、ノートPCなので、PCIカードが刺せません。PCカードを使ったiXtremeへの書き換えはできますか? A Windowsのみになりますが、AREA ツライチeSATA SATA (SD-CBES-Z1)で書き換えが行えます。 Q 私のPCは、NetBookなので、PCカードが刺せません。USBを使ったiXtremeへの書き換えはできますか? A USB-SATAなどを使った iXtreme への書き換えは行えません。書き換えは特定メーカー(VIA)のチップセットのS-ATAカードが必要になります。USB-SATAの中にVIAのチップセットものはありません。 Q できれば、手持ちのS-ATAを使って書き換えをしたいのですが、SAPARAID-PCI以外のカードでiXtremeへの書き換えはできますか? A マザーボードや、拡張カードがVIAのチップセットを使っているものであれば、書き換えは可能です。VIAのチップセットと言う意味がわからなければ、どの拡張カードを購入するべきかわからないと思うのでSAPARAID-PCIを購入した方が無難です。 Q LiteOnドライブでファームウェア書き換え途中でドライブが反応しなくなりました。壊れたのでしょうか? A LiteOnドライブは壊れていません。ファームウェアの消去が完了すると、書き換え以外できなくなります。 Q LiteOnドライブで、オリジナルファームウェアのバックアップがとりたいのですが、可能でしょうか? A 不可能です。LiteOnドライブは、オリジナルファームウェアのバックアップができないので、一度iXtremeに書き換えると元には戻せません。 Q WindowsでiXtreme化したいのですが、やり方を教えてください。 A Windows環境では、フラッシュ中にフリーズなどが起こった場合、最悪ドライブが読み込めなくなります。Windowsでのフラッシュはおすすめしません。 WindowsでのBenQフラッシュ Q 以前Xtreme/iXtreme化を行いました、このドライブのiXtremeのバージョンアップを行いたいのですが、可能でしょうか?また、iXtremeのバーションアップはどのように行えば良いのでしょうか? A iXtreme/Xtremeのどちらが入っていてもオリジナルファームウェアと同じ手順で、ファームウェアの吸い出し、書き換えを行えば、バーションアップが可能です。 (BenQ) iXtreme ファームウェアのアップデート Q BenQドライブでオリジナルファームウェアの吸い出しを行おうとしていたのですが、BenQの吸い出し手順通りに行っても吸い出しできません。 A Lite-onドライブと間違えていないか確認してください。確認方法は、以下のページにあります。 Xbox 360 DVDドライブの見分け方 Q iXtreme化することによって、リージョンフリーになりますか?また、別のリージョンのゲームを動作させることはできますか? A できません。
https://w.atwiki.jp/beat-stream/pages/29.html
SAVIOR OF SONG/ ナノ feat. MY FIRST STORY Lv Notes BPM Version CATEGORY Movie Jacket LIGHT 02 76 192 BST 01 アニメーション サンジゲン 森田和明 MEDIUM 07 251 BEAST 08 336 NIGHTMARE 10 540 +難易度投票 #splitinclude エラー 同時に取り込める最大数は3つまでです 初プレー時にはこの楽曲が選択されている。 楽曲解説 アニメ「蒼き鋼のアルペジオ」のOPテーマ曲。 ジャケットはjubeatと同一の「蒼き鋼のアルペジオ」版(GITADORAはMY FIRST STORY版を使用)。 ムービー解説 アニメで流れるOP映像と同じ。 動画 [部分編集] YouTube ニコニコ動画 BST HI-SPEEDx1.4 +動画を開く http //www.nicovideo.jp/watch/sm24360182 攻略・解説 譜面・楽曲の攻略についてはこちらへどうぞ 見辛さ解消の為に改行や文頭の編集、不適切なコメントを削除することがあります [MED] 序盤と終盤が見切り辛い配置で、(終盤にボーカル合わせの)リップル混合地帯も有る。その為、難所地帯のリズムが分からないとクリアーが遠くなる譜面。終盤の左右のストリームは、かなり速いので要注意。ラストの3連ノーツ→左右同時リップルは、両手を大きく開き、それぞれの親指で3連を交互で叩き、最後に両薬指の指先でリップルを叩くと安定するかも…。 -- 名無しさん (2014-07-21 02 12 11) [LIG] 所々に裏拍が混ざる為、スコア狙いの方は注意。クリアーレベルはLv2相当。 -- 名無しさん (2014-07-21 04 44 12) [BST]後半のストリームと同時押しリップルの複合地帯が鬼門。ストリーム(はし)→同時(り)→ストリーム(だす)→同時(こど)→リップル(-さ)→同時リップル(えも)→同時リップルと落ち着いて処理すること。ラストにかけても間違えやすい配置が続くため注意。 -- 名無しさん (2014-08-22 13 52 59) 名前 コメント ※文頭に[ bgcolor(#aaf){LIG}]、[ bgcolor(#ffa){MED}]、[ bgcolor(#faa){BST}]をコピー ペーストすると見やすくなります コメント [BST]サビの走り出す鼓動さえも~の最発狂からが本番。ここまでにクリアラインに達しないようでは地力不足。全体的に8では厳しい配置が多い上にこの部分が非常に見切りづらいため、詐称気味。 -- (名無しさん) 2014-08-21 05 38 22 名前 コメント すべてのコメントを見る
https://w.atwiki.jp/m501/
2chのスレ(自作回路でUSB) で図がないと説明しにくいのでwiki借りることにしました。 問題は、USBの先につないだA/DでNi-MH電池の電圧計ると6mVぐらいのノイズが乗ること。 入力のRCフィルタで落としているけどもっと根本的な解決求む!ということです。 実際の変換値をみると、変換開始後100ms以降、PC側にシリアルでデータ転送が行われている間に連続して6mV p-p程度のノイズが乗っています。 あんまり正確ではありませんが回路図はこんな感じ。(パスコン類も省略)A/Dは悪名高いDWMのADuC7026基板ですが、LVDD分離、VCCIO/AVDD/基板裏のパスコン追加済みで、単体のノイズはA/D変換結果をみるかぎり600uV(1LSB)程度に減っています。 ちなみに、下のグラフは15000pFを取り除いた結果で、1LSBぐらいノイズが増えていますが決定的な影響はないようです。USBのコモンモードノイズが原因でないのかも。 オシロで観測すると、15000pFを取り除いた状態でGNDとシールドの電位差が1ms周期で40mV p-p程度パルス状に振れています。(下の写真は0.5ms/div, 20mV/div,DC)パルスを拡大すると数MHz程度のようです。GNDが振れれば入力は相対的に同じだけ振れるのでこれがノイズが1LSB増えた原因だと思われます。しかし、このノイズはデータの有無にかかわらず存在するので、データ転送時の6mV p-p程度のノイズは、これでは説明できません。 残る可能性はFT232RLのRXをADuCのTXがドライブする時のノイズですが、ADuCの出力に1kΩを入れても変化がないのでそれも違いそうです。 このノイズは一体どこから入り込んだのか……。 参考:スレで挙げてげていただいたノイズ対策部品muRataコモンモードチョークコイルデータをみるかぎり、50MHz以上では若干効果がありそう。 現在、paint_bbsプラグインはご利用いただけません。 名前 コメント