約 952,939 件
https://w.atwiki.jp/systemc/pages/21.html
SystemC-AMSライブラリのキーワードはsca_で始まる。マクロはSCA_で始まる。 AMSの基本的なクラスは名前空間sca_coreにある。 トレースやデータ型のようなユーティリティクラスは名前空間sca_utilにある。 モデル化の手法ごとに名前空間(namespace)が用意されている。 モデル化の手法 名前空間 TDF sca_tdf LSF sca_lsf ELN sca_eln モデル化手法にかかわらず同等なクラスがある場合は、名前空間で区別される。 たとえば、TDF用のモジュールのクラスはsca_tdf sca_moduleである。 2012-01-30 21 04 15 (Mon)
https://w.atwiki.jp/memcache/pages/29.html
1. 基本的な方法1.1. ホスト 1.2. クライアント 2. [WCFサービス ライブラリ]テンプレートを利用する方法2.1. 概要 2.2. Hostプロジェクト2.2.1. App.configの編集 2.2.2. ホスト(Program.Main)の実装 2.3. Clientプロジェクト2.3.1. WCFサービスのメタデータ公開確認 2.3.2. "サービス参照の追加"を設定 2.3.3. クライアント(From1)の実装 3. RESTfulサービス(GET)の実装3.1. 概要 4. RESTfulサービス(GET, POST)の実装 1. 基本的な方法 1.1. ホスト 以下の 0 ~ 4 の処理を記述する。 using System.ServiceModel; namespace HelloWCF { // 0 ServiceContractをインターフェースとして定義 [SercieContract(namespace = "http //My.WCF.Samples")] public interface IService1 { [OperationContract] string getMessage(string inputMessage); } public class Service1 IService1 { public string getMessage(string inputMessage) { ... } } static void Main(string[] args) { Uri baseAddr = new Uri("http //host port/ServcieName"); // 1 ベースアドレスからServiceHostを生成 using (ServiceHost svcHost = new ServiceHost(typeof(Service1), baseAddr)) { // 2 ServiceHostインスタンスにエンドポイントを追加 svcHost.AddServiceEndpoint(typeof(IService1), new BasicHttpBinding(), "test"); // 3 ServiceHostオープン svcHost.Open(); ... // 4 ServiceHostクローズ svcHost.Close(); } } } 1.2. クライアント 以下の 0 ~ 3 の処理を記述する。 using System.ServiceModel // 0 サービスコントラクト(インターフェース)の宣言 サービスコントラクト宣言は省略。 method() { // 1 エンドポイントアドレス(サービスの絶対アドレス System.ServiceModel.EndpointAddress)を生成 EndpointAddress epAddr = new EndpointAddress ("http //host port/ServcieName/test"); // 2 ChannelFactoryからプロキシを生成 IService1 proxy = ChannelFactory IService1 .CreateChannel(new BasicHttpBinding(), epAddr); try { // 3 プロキシ経由でメソッドを実行 var return = proxy.getMessage("abc"); ... } catch (CommunicationException ex) { ... } } 2. [WCFサービス ライブラリ]テンプレートを利用する方法 2.1. 概要 以下の構成でソリューションを作成。 VsSolution Libraryプロジェクト (output dll) "WCFサービス ライブラリ"テンプレートの利用 IService1.cs ServiceContract宣言(名前空間 HelloWCF2) Service1.cs ServiceContract実装 Hostプロジェクト (output exe) Libraryプロジェクトを"参照の追加" App.config (アプリケーション構成ファイル) Program.cs Clientプロジェクト (output exe) Hostプロジェクトの"サービス参照の追加" Service References\ServiceReferene1\Reference.cs(自動生成されたサービス参照) App.config(自動生成されたアプリケーション構成ファイル) Form1.cs(Windowsアプリケーションテンプレートによる生成) 2.2. Hostプロジェクト Libraryプロジェクトの参照を追加し以下の作業を行う。 "参照の追加"を設定 App.configの編集 WCFサービスのコントラクト情報開示設定 WCFサービス公開設定 ホスト(Program.Main)の実装 2.2.1. App.configの編集 以下の(0) ~ (1)の処理を記述する。 ?xml version="1.0" encoding="utf-8" ? configuration system.serviceModel !-- (0) [[WCF]]サービスのコントラクト情報公開の為のサービスのビヘイビア変更 既定のビヘイビアではメタデータは公開されない為、[[HTTP]]のGET要求で サービスのメタデータの取得が可能となる。 -- behaviors behavior name="svcBehavior" serviceMetadata httpGetEnabled="true" / /behavior /behaviors !-- (0) -- !-- (1) WCFサービスの定義。このサービスでは(0)で定義されたビヘイビアが 適用され、そのメタデータを公開する。またエンドポイント要素と ホスト要素を定義。 エンドポイント要素"endpoint"として以下の情報を設定する。 1. コントラクト 2. バインディング 3. 相対アドレス ホスト要素"host"ではベースアドレスを設定する。 -- services service behaviorConfiguration="svcBehavior" name="HelloWCF2.Service1" endpoint address="HelloWCF" binding="basicHttpBinding" name="basicHttp" contract="HelloWCF2.IService1" / host baseAddress add baseAddress="http //localhost 8000/WCFSampleService" / /baseAddress /host /service /services !-- (1) -- /system.serviceModel /configuration 2.2.2. ホスト(Program.Main)の実装 App.configにてベースアドレス定義やエンドポイント追加を記述した為、プログラムでハードコーディングは不要となる。 using System.ServiceModel; namespace Host { class Program { static void Main(string[] args) { using (ServiceHost svcHost = new ServiceHost(typeof(HelloWCF2.Service1))) { svcHost.Open(); ... svcHost.Close(); } } } } 2.3. Clientプロジェクト 以下の作業を行う。 WCFサービスのメタデータ公開確認 http //localhost 8000/WCFSampleService http //localhost 8000/WCFSampleService?WSDL (WSDLの表示) "サービス参照の追加"を設定 クライアント(From1)の実装 2.3.1. WCFサービスのメタデータ公開確認 Hostプロジェクトのexeを実行し以下のURLに正しくアクセスできることを確認する。 http //localhost 8000/WCFSampleService http //localhost 8000/WCFSampleService?WSDL (WSDLの表示) 2.3.2. "サービス参照の追加"を設定 "参照設定"から"サービス参照の追加"を実行する。"サービス参照の追加"ダイアログのアドレスは"検索"ボタンで入力するか、直接ベースアドレスを入力する。 この操作により以下のオブジェクトが自動生成される。 "Service References"以下の"ServiceReference1"名前空間 IService1が利用できるクライアント"Service1Client" App.config Webサービスのエンドポイント要素 2.3.3. クライアント(From1)の実装 以下の 0 ~ 3 の処理を記述する。 // 0 "サービス参照の追加"で生成された名前空間も引用する。 using System.ServiceModel; using Client.ServiceReference1; namespace Client { public partial class Form1 Form { public Form1() { InitializeComponent(); } private void button1_Click(object sender, EventArgs e) { // 1 クライアント生成 Service1Client client = new Service1Client(); // 2 WCFサービス呼び出し try { string outputMessage = client.getMessage(".NET WCF"); ... } catch (CommunicationException commEx) { MessageBox.Show("サービス呼び出し失敗 " + commEx.Message); } // 3 クライアントクローズ client.Close(); } } } 3. RESTfulサービス(GET)の実装 3.1. 概要 以下の構成でソリューションを作成。 [WCFサービスアプリケーション]テンプレートでプロジェクトを作成する。 データコントラクトを定義する。(インターフェース) 属性を定義した具象化クラスを実装する。 *.svcファイルのServiceHostタグ属性FactoryでWebServiceHostFactoryを指定する。 IOrderService.cs using System.ServiceModel; namespace WCFServiceWebRole1 { [ServiceContract] public interface IOrderService { [OperationContract] OrderItem GetOne(string id); } [DataContract(Namespace = "", Name = "OrderItem")] public class OrderItem { [DataMember] public int Id; [DataMember] public string Name; } } OrderService.svc.cs using System.ServiceModel.Web; namespace WCFServiceWebRole1 { public class OrderService IOrderService { // WebMessageFormat.Xml POX(プレーンなXML形式) [WebGet(UriTemplate = "orders/{id}", ResponseFormat = WebMessageFormat.Xml)] public OrderItem GetOne(string id) { return new OrderItem { Id = int.Parse(id), Name = "テスト" }; } } } OrderService.svc %@ ServiceHost Language="C#" Debug="true" Service="WCFServiceWebRole1.OrderService" CodeBehind="OrderService.svc.cs" Factory="System.ServiceModel.Activation.WebServiceHostFactory"% WCFを使用したRESTfulサービスの概要(MSDNマガジン) 10 行でズバリ!! REST サービスの作成 (C#) WCF Web HTTP プログラミング モデル(msdn) RESTでJSONなサービスをWCFで作ったり使ったりする WCF および .NET Framework 3.5 を使用した HTTP プログラミング 残件:RESTクライアントの作成 http //msdn.microsoft.com/ja-jp/library/cc656724.aspx 4. RESTfulサービス(GET, POST)の実装 cf. http //d.hatena.ne.jp/okazuki/20110109/1294586423
https://w.atwiki.jp/ecmcafe/
@wikiへようこそ ウィキはみんなで気軽にホームページ編集できるツールです。 このページは自由に編集することができます。 メールで送られてきたパスワードを用いてログインすることで、各種変更(サイト名、トップページ、メンバー管理、サイドページ、デザイン、ページ管理、等)することができます まずはこちらをご覧ください。 @wikiの基本操作 編集モード・構文一覧表 @wikiの設定・管理 分からないことは? @wiki ご利用ガイド よくある質問 @wiki更新情報 @wikiへのお問合せフォーム 等をご活用ください アットウィキモードでの編集方法 文字入力 画像入力 表組み ワープロモードでの編集方法 文字入力 画像入力 表組み その他にもいろいろな機能満載!! @wikiプラグイン一覧 @wikiかんたんプラグイン入力サポート バグ・不具合を見つけたら? 要望がある場合は? お手数ですが、お問合せフォームからご連絡ください。
https://w.atwiki.jp/ecmcafe/pages/11.html
インスタグラムプラグイン 人気の画像共有サービス、Instagram(インスタグラム)の画像をアットウィキに貼れるプラグインです。 #ig_user(ユーザー名) と記載することで、特定ユーザーのInstagramのフィードを表示することができます。 例)@dogoftheday #ig_user #ig_tags(タグ名) と記載することで、特定タグのInstagramのフィードを表示することができます。 #dogofthedayjp タグ #ig_tag #ig_popular と記載することで、Instagramのpopularフィードを表示することができます。 詳しい使い方は以下のページを参考にしてください! =>http //www1.atwiki.jp/guide/pages/935.html
https://w.atwiki.jp/ecmcafe/pages/5.html
更新履歴 @wikiのwikiモードでは #recent(数字) と入力することで、wikiのページ更新履歴を表示することができます。 詳しくはこちらをご覧ください。 =>http //www1.atwiki.jp/guide/pages/269.html#id_bf9eaeba たとえば、#recent(20)と入力すると以下のように表示されます。 取得中です。
https://w.atwiki.jp/systemc/pages/12.html
SystemC-2.3.1のインストール Accelleraのホームページからダウンロードする。特に修正しなくてもg++-4.9でコンパイル可能。修正以外の手順は2.2.0と同じ。 cygwin用は、configureするときに --enable-pthreadsのオプションが必要。 g++-4でのSystemC-2.2.0のインストール g++-4.9でコンパイルしようとするとエラーになる。エラー箇所(src/sysc/datatypes/bit/sc_bit_proxies.h)のmutableを消すとコンパイル可能ではあるが、他のバグもあるようなので、SystemC-2.3.1を使用するのがお勧め。 (ここから、2012年の記述) OSCIのホームページからダウンロードしてきたsystemc-2.2.0.tgzを展開する。 tar xvfz systemc-2.2.0.tgz 展開されたsystemc-2.2.0ディレクトリへ移動する。 cd systemc-2.2.0 src/sysc/utils/sc_utils_ids.cppの62行目に次の2行を加える。 #include cstdlib #include cstring src/sysc/kernel/sc_constants.hの中のSC_DEFAULT_STACK_SIZEは大きくした方が良い。0x50000くらいがお勧め。 作業用のobjdirディレクトリを作成する。 mkdir objdir objdirディレクトリへ移動する。 cd objdir CXX環境変数を設定した方が良いかもしれない。 export CXX=g++ コンパイル環境を構築する。 ../configure もし、環境を指定したい場合は、 ../configure --help で確認する。次のようにインストール場所を指定する場合が多い。 ../configure --prefix=/usr/local/systemc-2.2 インストール場所は、あらかじめ作成しておくこと。 コンパイルを行う。 make ライブラリなどをインストールする。 make install 2015-05-06 20 39 52 (Wed) -
https://w.atwiki.jp/tumc92/
TUMC92@wikiとは tumc92@wikiは92年入学のTUMC OBの遊び場です いつかは、みんなでEVモータースポーツができたらなぁと、情報交換の場にしたいと思います まぁ、お気軽にやっていきましょう リンク集 -
https://w.atwiki.jp/memcache/pages/63.html
SummaryCloudera's Distribution for Hadoop (CDH) HDFSMasterNode構築yumによるバイナリのインストール hadoop.tmp.dir, dfs.*.dirの準備 設定ファイル作成 hdfsユーザパスワード設定とファイルシステムフォーマット HDFSを複数ユーザで利用可能にする DataNode構築yumによるバイナリのインストール HDFS動作確認 運用 トラブル対応log4jのエラー出力 HBaseZooKeeper Server構築yumによるバイナリのインストール 設定ファイル作成(/etc/zookeeper/zoo.cfg, /var/zookeeper/myid) HBaseMaster構築yumによるバイナリのインストール 設定ファイル作成(hbase-site.xml) regionserversの作成 ZooKeeper Client設定ファイル作成(zoo.cfg) HDFS上のHBase用ディレクトリ作成 HRegionServer構築yumによるバイナリのインストール HBase動作確認 link Offical系link Offical系日本語訳 Summary Hadoopのプロジェクト Project 説明 HDFS 高いスループットを保ちつつ、同時に信頼性を追求した分散ファイルシステム MapReduce クラスタ環境で並列分散処理を行うためのフレームワーク Hive Hadoopでの操作を容易にするためのSQL的なインターフェイス Ping Hadoopでの操作データフローで記述するスクリプト言語風インターフェース Sqoop DBMSとHadoopの間のデータ移行を実現する HBase 巨大なテーブルを管理するために、拡張性を追求したKey-Value Store ZooKeeper 分散クラスタ環境上で動作させるアプリケーションを集中管理するためのプロダクト Cloudera's Distribution for Hadoop (CDH) ユーザ(必要に応じてパスワードを変更すること): ユーザ 役割 hdfs NameNode, SecondaryNameNode, DataNodeを管理するユーザ mapred JobTracker, TaskTrackerを管理するユーザ 主要なインストール先ディレクトリ("rpm -ql hadoop-0.20"の実行結果): 項目 インストール先 Hadoop ラッパースクリプト /usr/bin/hadoop-0.20 Hadoop 設定ファイル /etc/hadoop-0.20/conf/* HadoopJarとライブラリファイル($HADOOP_HOME) /usr/lib/hadoop-0.20/* Hadoop ログファイル /var/log/hadoop-0.20/* HadoopManページ /usr/share/man/* Hadoopサービススクリプト /etc/init.d/hadoop-0.20-* link http //www.cloudera.co.jp/ HDFS HDFSは1台のMasterNodeと複数のDataNodeから構成させる。 HDFSの設定ファイル:/etc/hadoop/conf/ file description defined parameters core-site.xml Hadoop共通の設定 fs.default.name, hadoop.tmp.dir hdfs-site.xml HDFSの挙動の設定 dfs.name.dir, dfs.data.dir, dfs.replication, dfs.replication.min, dfs,safemode.threshold.pct masters SecondaryNameNodeの指定 (FQDN or IP addressによる指定) slaves DataNodeの指定 (FQDN or IP addressによる指定) Hadoop共通の設定パラメタ:core-site.xml parameters description fs.default.name Hadoopで使用するファイルシステムを設定。デフォルトではローカルファイルシステムを利用する。HDFSを使用する場合はhdfs //というスキーマで始まるURIを設定する。 hadoop.tmp.dir HDFSだけでなく、MapReduceやクライアントプログラムが一時的に使用するファイルを格納するディレクトリを指定。 HDFSの設定パラメタ:hdfs-site.xml parameters description dfs.name.dir NameNodeが管理するデータ(fsimageやedits)を格納するディレクトリ dfs.data.dir DataNodeが管理するブロックなどを格納するディレクトリ dfs.replication 目標のレプリケーション数。HDFSはこのレプリケーション数を維持しようとする dfs.replication.min セーフモードから離脱するための最小レプリケーション数。HDFSの書き込みは、最小レプリケーション数までブロックが書き込まれた時点で成功となる。HDFSは起動時に全てのブロック内dfs.safemode.thresholdで示される割合のブロックが最小レプリケーション数に達した時点でSafeモードから離脱可能となる dfs.safemode.threshold.pct HDFSがSafeモードから離脱するめに必要な全ブロックに対するレプリケーション数の割合 MasterNode構築 手順は以下の通り。 yumによるバイナリのインストール hadoop.tmp.dir, dfs.*.dirの準備 設定ファイル作成 hdfsユーザパスワード設定とファイルシステムフォーマット yumによるバイナリのインストール $ sudo yum install hadoop-0.20-namenode.noarch ================================================================================== Package アーキテクチャ バージョン リポジトリー 容量 ================================================================================== インストール中 hadoop-0.20-namenode noarch 0.20.2+923.256-1 cloudera-cdh3 3.7 k 依存性関連でのインストールをします binutils x86_64 2.21.53.0.1-6.fc16 updates 3.5 M hadoop-0.20 noarch 0.20.2+923.256-1 cloudera-cdh3 30 M patch x86_64 2.6.1-9.fc16 fedora 91 k pax x86_64 3.4-12.fc16 fedora 69 k perl-Class-ISA noarch 0.36-1006.fc16 updates 8.2 k perl-Locale-Codes noarch 3.21-1.fc16 updates 308 k redhat-lsb x86_64 4.0-7.1.fc16 updates 25 k トランザクションの要約 ================================================================================== インストール 1 パッケージ (+7 依存するパッケージ) 総ダウンロード容量 34 M インストール済み容量 66 M これでいいですか? [y/N]y hadoop.tmp.dir, dfs.*.dirの準備 以下のスクリプトを実行して、/hadoopと/dataを作成する。 #!/bin/sh sudo mkdir /hadoop sudo chown hdfs hadoop /hadoop sudo chmod 777 /hadoop sudo mkdir -p /data/dfs/name /data/dfs/data sudo chown -R hdfs hadoop /data/dfs/name /data/dfs/data sudo chmod -R 700 /data/dfs/name/ sudo chmod -R 755 /data/dfs/data/ #mkdir -p /data/mapred/local #chown -R mapred hadoop /data/mapred/local/ #chmod 755 /data/mapred/local/ 設定ファイル作成 SecondaryNameNodeを利用しないのであれば作成するファイルは以下の通り。 core-site.xml hdfs-site.xml slaves CDHでは/etc/hadoop-0.20/confをコピーして設定ファイルを修正した後、alternativesコマンドで設定ファイルを登録する。 $ sudo cp /etc/hadoop-0.20/conf /etc/hadoop-0.20/conf.customized $ sudo alternatives --install /etc/hadoop-0.20/conf hadoop-0.20-conf /etc/hadoop-0.20/conf.customized 50 サンプルは以下の通り。 core-site.xml ?xml version="1.0"? ?xml-stylesheet type="text/xsl" href="configuration.xsl"? !-- Put site-specific property overrides in this file. -- configuration property name hadoop.tmp.dir /name value /hadoop /value /property property name fs.default.name /name value hdfs //HDFS_MASTER_HOST 54310 /value /property /configuration hdfs-site.xml ?xml version="1.0"? ?xml-stylesheet type="text/xsl" href="configuration.xsl"? !-- Put site-specific property overrides in this file. -- configuration property name dfs.name.dir /name value /data/dfs/name /value /property property name dfs.data.dir /name value /data/dfs/data /value /property /configuration slaves slave1_fqdn_or_ip slave2_fqdn_or_ip slave3_fqdn_or_ip hdfsユーザパスワード設定とファイルシステムフォーマット hdfsユーザパスワード設定の後、HDFSのフォーマットを行う。 SOMEONE$ sudo passwd hdfs SOMEONE$ su - hdfs hdfs$ hadoop namenode -format HDFSを複数ユーザで利用可能にする namenode, datanodeサービス起動後、以下のコマンドを実行する。 SOMEONE$ su - hdfs hdfs$ hadoop fs -mkdir /user hdfs$ hadoop fs -chmod 777 /user DataNode構築 以下の手順以外はNameNodeと同じ。 yumによるバイナリのインストール yumによるバイナリのインストール $ sudo yum install hadoop-0.20-datanode.noarch ====================================================================================== Package アーキテクチャ バージョン リポジトリー 容量 ====================================================================================== インストール中 hadoop-0.20-datanode noarch 0.20.2+923.256-1 cloudera-cdh3 3.7 k 依存性関連でのインストールをします binutils x86_64 2.21.53.0.1-6.fc16 updates 3.5 M hadoop-0.20 noarch 0.20.2+923.256-1 cloudera-cdh3 30 M patch x86_64 2.6.1-9.fc16 fedora 91 k pax x86_64 3.4-12.fc16 fedora 69 k perl-Class-ISA noarch 0.36-1006.fc16 updates 8.2 k perl-Locale-Codes noarch 3.21-1.fc16 updates 308 k redhat-lsb x86_64 4.0-7.1.fc16 updates 25 k トランザクションの要約 ====================================================================================== インストール 1 パッケージ (+7 依存するパッケージ) 総ダウンロード容量 34 M インストール済み容量 66 M これでいいですか? [y/N]y HDFS動作確認 NameNode WebUI http //localhost 50070/ JOBTracker WebUI http //localhost 50030/ 運用 under construction トラブル対応 log4jのエラー出力 hadoopコマンド実行時に以下のlog4jのエラーが表示されるときの対処方法。 log4j ERROR Could not find value for key log4j.appender.NullAppender log4j ERROR Could not instantiate appender named "NullAppender". /etc/hadoop/conf/log4j.propertiesに以下の行を追記する。 # # Null Appender # Trap security logger on the hadoop client side # log4j.appender.NullAppender=org.apache.log4j.varia.NullAppender HBase HBaseは2台のHBaseMaster、複数のHRegionServer及び複数のZooKeeper Serverから構成させる。これらは内部的にHDFSを利用するため、その上に環境を構築する。 以下のHBase設定ファイルはHBaseMaster, HRegionServer共通。 /etc/hbase/conf/hbase-site.xml HBaseの設定パラメタ:/etc/hbase/conf/hbase-site.xml parameters description hbase.rootdir HBaseのデータはHDFS上に保存される。このプロパティではHDFS(マスターの位置とディレクトリ)を指定する。 hbase.cluster.distributed 分散モードで使用する場合は必ずtureにする hbase.zookeeper.quorum ZooKeeper Serverの位置を指定する。 link HBaseメモ HBaseにJavaからアクセス ZooKeeper Server構築 手順は以下の通り。 yumによるバイナリのインストール 設定ファイル作成(/etc/zookeeper/zoo.cfg, /var/zookeeper/myid) yumによるバイナリのインストール $ sudo yum install hadoop-zookeeper-server.noarch ======================================================================================= Package アーキテクチャ バージョン リポジトリー 容量 ======================================================================================= インストール中 hadoop-zookeeper-server noarch 3.3.5+19.1-1 cloudera-cdh3 4.7 k トランザクションの要約 ======================================================================================= インストール 1 パッケージ 総ダウンロード容量 4.7 k インストール済み容量 4.5 k これでいいですか? [y/N]y 設定ファイル作成(/etc/zookeeper/zoo.cfg, /var/zookeeper/myid) ZooKeeper Serverの設定ファイルは以下の通り。 /etc/zookeeper/zoo.cfg /var/zookeeper/myid zoo.cfgでは全てのZooKeeper Serverを全て登録する。その際IDを以下のフォーマットで割り当てる。 server.id=HOST port1 port2 該当するZooKeeper Serverではmyidとしてそのidを記述する。 /etc/zookeeper/zoo.cfg # The number of milliseconds of each tick tickTime=2000 # The number of ticks that the initial # synchronization phase can take initLimit=10 # The number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 # the directory where the snapshot is stored. dataDir=/var/zookeeper # the port at which the clients will connect clientPort=2181 server.0=ZK_HOST_0 2888 3888 /var/zookeeper/myid 0 HBaseMaster構築 手順は以下の通り。 yumによるバイナリのインストール HBase設定ファイル作成(hbase-site.xml) regionserversの作成 ZooKeeper Client設定ファイル作成(zoo.cfg) HDFS上のHBase用ディレクトリ作成 yumによるバイナリのインストール $ sudo yum install hadoop-hbase-master.noarch ================================================================================= Package アーキテクチャ バージョン リポジトリー 容量 ================================================================================= インストール中 hadoop-hbase-master noarch 0.90.6+84.29-1 cloudera-cdh3 4.4 k 依存性関連でのインストールをします hadoop-hbase noarch 0.90.6+84.29-1 cloudera-cdh3 29 M hadoop-zookeeper noarch 3.3.5+19.1-1 cloudera-cdh3 2.9 M トランザクションの要約 ================================================================================= インストール 1 パッケージ (+2 依存するパッケージ) 総ダウンロード容量 31 M インストール済み容量 41 M これでいいですか? [y/N]y 設定ファイル作成(hbase-site.xml) サンプルは以下の通り。 hbase-site.xml ?xml version="1.0"? ?xml-stylesheet type="text/xsl" href="configuration.xsl"? !-- /** * Copyright 2010 The Apache Software Foundation * * Licensed to the Apache Software Foundation (ASF) under one * or more contributor license agreements. See the NOTICE file * distributed with this work for additional information * regarding copyright ownership. The ASF licenses this file * to you under the Apache License, Version 2.0 (the * "License"); you may not use this file except in compliance * with the License. You may obtain a copy of the License at * * http //www.apache.org/licenses/LICENSE-2.0 * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ -- configuration property name hbase.rootdir /name value hdfs //HDFS_MASTER_HOST 54310/hbase/ value /property property name hbase.cluster.distributed /name value true value /property property name hbase.zookeeper.quorum /name value ZK_HOST_0 value /property /configuration regionserversの作成 Under construction ZooKeeper Client設定ファイル作成(zoo.cfg) zoo.cfgでは全てのZooKeeper Serverを全て登録する。その際IDを以下のフォーマットで割り当てる。 server.id=HOST port1 port2 サンプルは以下の通り。 /etc/zookeeper/zoo.cfg # The number of milliseconds of each tick tickTime=2000 # The number of ticks that the initial # synchronization phase can take initLimit=10 # The number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 # the directory where the snapshot is stored. dataDir=/var/zookeeper # the port at which the clients will connect clientPort=2181 server.0=ZK_HOST_0 2888 3888 HDFS上のHBase用ディレクトリ作成 hbase-site.xmlにて以下の様な設定を行った場合は、HDFS上で"/hbase"を作成する。 property name hbase.rootdir /name value hdfs //HDFS_MASTER_HOST 54310/hbase/ value /property SOMEONE$ su - hdfs hdfs$ hadoop fs -mkdir /hbase hdfs$ hadoop fs -chmod 777 /hbase HRegionServer構築 以下の手順以外はHBaseMasterと同じ。 yumによるバイナリのインストール ただしHRegionServer構築では以下の作業は不要。 HDFS上のHBase用ディレクトリ作成 yumによるバイナリのインストール $ sudo yum install hadoop-hbase-regionserver.noarch ==================================================================================== Package アーキテクチャ バージョン リポジトリー 容量 ==================================================================================== インストール中 hadoop-hbase-regionserver noarch 0.90.6+84.29-1 cloudera-cdh3 4.5 k 依存性関連でのインストールをします hadoop-hbase noarch 0.90.6+84.29-1 cloudera-cdh3 29 M hadoop-zookeeper noarch 3.3.5+19.1-1 cloudera-cdh3 2.9 M トランザクションの要約 ==================================================================================== インストール 1 パッケージ (+2 依存するパッケージ) 総ダウンロード容量 31 M インストール済み容量 41 M これでいいですか? [y/N]y HBase動作確認 HBaseMaster, HRegionServer, ZooKeeperが正常動作しているか確認するためには全てのホストで以下のコマンドが成功することを確認すること。 [yuji@slave3 ~]$ hbase shell HBase [[Shell]]; enter 'help RETURN ' for list of supported commands. Type "exit RETURN " to leave the HBase Shell Version 0.90.6-cdh3u4, r, Mon May 7 13 14 00 PDT 2012 hbase(main) 001 0 status 2 servers, 0 dead, 1.0000 average load hbase(main) 002 0 HBaseMaster WebUI http //localhost 60010/master.jsp link 並列分散処理の常識をHadoopファミリから学ぶ (@IT) いまさら聞けないKVSの常識をHbaseで身につける (@IT) Google基盤ソフトウェアのオープンソースクローンを使ってみる (CodeZine) Hadoop分散データベース Offical系link #ref error :画像を取得できませんでした。しばらく時間を置いてから再度お試しください。 Hadoopユーザー会 #ref error :画像を取得できませんでした。しばらく時間を置いてから再度お試しください。 http //www.cloudera.co.jp/ http //www.cloudera.com/ Ganglia http //ganglia.sourceforge.net/ ZooKeeper http //zookeeper.apache.org/ Offical系日本語訳 あしたのオープンソース研究所 http //oss.infoscience.co.jp/index.html Apache Hadoop http //oss.infoscience.co.jp/hadoop/ Apache HBase http //oss.infoscience.co.jp/hbase/ Apache Cassandra http //oss.infoscience.co.jp/cassandra/
https://w.atwiki.jp/digitalcamera/pages/17.html
マイクロフォーサーズとは オリンパスとパナソニックによって策定され、2008年8月5日に発表されたミラーレス一眼用の規格。 フォーサーズシステムの拡張規格とされる。 フォーサーズとの違いは ライブビュー専用規格としてミラーボックスを持たないためフランジバックが短い マウント外径を約9mm小型化 コントラストAFや動画撮影対応などのため接点を9から11点に増加 などが挙げられる。 撮像素子はフルサイズの1/2の対角長となる対角長21.63mmの4/3型撮像素子を採用する。 一部を除き、多くは4 3のアスペクト比を採用。 賛同企業 オリンパス パナソニック ライカ コシナ カールツァイス シュナイダー・クロイツナッハ 駒村商会 コシナ ケンコー・トキナー アストロデザイン Blackmagic Design JK Imaging フォトロン SVS-VISTEK ビュープラス (フォーサーズ規格には賛同しているシグマはマイクロフォーサーズ用レンズを発売しているが、マイクロフォーサーズ賛同企業には含まれていない) マイクロフォーサーズ採用カメラ オリンパス・ペンシリーズ ペン E-P1 2009年7月発売。オリンパス初のマイクロフォーサーズシステム採用モデル。公式サイト上では「マイクロ一眼」と呼称している。 ペン E-P2 2009年12月発売。E-P1に外付け電子ビューファインダー(EVF)用端子などを追加したモデル。 ペン E-P3 2011年7月発売。E-P2にフラッシュ、フルハイビジョン動画記録、タッチパネルを搭載したモデル。 ペン E-P5 2013年6月発売。 ペン ライト E-PL1 2010年3月発売。エントリーモデル。 ペン ライト E-PL1s 2010年12月発売。E-PL1のキットレンズ変更、マイナーチェンジモデル。 ペン ライト E-PL2 2011年1月発売。E-PL1sから外見デザインを変更。アートフィルター追加、3.0インチ液晶モニター採用。 ペン ライト E-PL3 2011年9月発売。E-PL2から外見デザインを変更。可動式モニタ、フルハイビジョン動画記録を搭載。 ペン ライト E-PL5 2012年10月発売。 ペン ライト E-PL62013年6月発売。 ペン ミニ E-PM1 2011年10月発売。超小型モデル。 ペン ミニ E-PM2 2012年10月発売。 オリンパス・OM-Dシリーズ OM-D E-M5 2012年3月発売。OMシステムの名称・デザインを踏襲。1605万画素の新Live MOSセンサー、5軸対応手ぶれ補正機構を採用。 OM-D E-M1 2013年10月発売。OM-Dシリーズ第2弾。1628万画素の新Live MOSセンサー、大型高精細EVFや像面位相差AFなどの新機能を追加し、従来のE-システム一眼レフをも統合する新フラッグシップ機(E-5の統合後継機でもある)。 パナソニック・ルミックスGシリーズ DMC-G1 2008年10月発売。マイクロフォーサーズシステムを採用した最初のカメラ。仕様表では「レンズ交換式デジタル一眼カメラ」という型式名になっている。 DMC-GH1 2009年4月発売。フルハイビジョン動画記録に対応したモデル。 DMC-GF1 2009年9月発売。小型化しライブビューファインダーを省略したモデル。動画記録に対応。 DMC-G2 2010年4月発売。DMC-G1の後継機種。動画記録に対応し、レンズ交換式デジタルカメラとして世界で初めてタッチパネルを搭載する。 DMC-G10 2010年6月発売[。DMC-G2の廉価版。タッチパネルは搭載しない。 DMC-GH2 2010年10月発売。DMC-GH1の後継機種。タッチパネル搭載。従来機とは異なるBLC12型バッテリー採用。 DMC-GF2 2010年12月発売。DMC-GF1の後継機種。タッチパネル搭載。モードダイヤルが廃止された。小型小容量のBLD10型バッテリー採用。 DMC-G3 2011年7月発売。DMC-G2の後継機種。新型16MPセンサ搭載。小型化されGF2と共通のBLD10型バッテリを採用。 DMC-GF3 2011年7月発売。DMC-GF2の後継機種。より小型・廉価になる。ホットシューが省略された。小型小容量BLE9型バッテリ採用。 DMC-GX1 2011年11月発売。DMC-GF1の派生高級機。G3の新型16MPセンサ搭載。電子水準器搭載。BLD10型バッテリを採用。 DMC-GF5 2012年4月発売。DMC-GF3の後継機種。小型・廉価機。 DMC-G5 2012年9月発売。DMC-G3の後継機種。GH2センサ搭載。G3よりも若干大型化。GH2と共通のBLC12型バッテリー採用。 DMC-GH3 2012年12月発売。DMC-GH2の後継機種。より大型化しバッテリーグリップも用意。大型・大容量BLF19型バッテリーを採用。240fps対応。 DMC-GF6 2013年4月発売。DMC-GF5の後継機種。180度回転できるチルト液晶搭載。モードダイヤルが復活し、GF1~GX1の流れを汲む。 DMC-G6 2013年6月20日発売。DMC-G5の後継機種。GH2センサ搭載。GH2と共通のBLC12型バッテリー採用。一部機能ではGH3を{凌ぐ。240fps対応。 DMC-GX7} 2013年9月13日発売。DMC-GX1の後継機種。EVF追加、チルト液晶搭載で事実上GX1の上位機種。GF6と共通のBLG10型バッテリー採用。 DMC-GM1 2013年11月21日発売予定。 パナソニック・AVCCAMシリーズ AG-AF100 - 業務用HDカメラレコーダー。世界初マイクロフォーサーズMOSイメージセンサーを搭載したビデオカメラ。 AG-AF105 2010年12月発売[33]。AG-AF100の日本国内向けモデル。 AG-AF105A 2012年11月発売。AG-AF105の後継機種。 アストロデザイン AH-4413 2012年12月発売。2160p(3840×2160)カメラヘッド。 Blackmagic Design (en Blackmagic Design) Blackmagic Cinema Camera 2012年12月発売[。シネマカメラ Blackmagic Pocket Cinema Camera 2013年7月発売予定
https://w.atwiki.jp/dmorika/pages/309.html
《カース・ウォルタ》 カース・ウォルタ P 水文明 (3) クリーチャー:サイバーロード/カース 3000 カース(このクリーチャーは、自分の《呪城カース・ワールド》が要塞化されていなければ破壊される。) このクリーチャーが攻撃するとき、カードを1枚引いてもよい。 《呪城カース・ワールド》専用カード。「呪城」の効果で安全に攻撃可能。 収録セット DMCO-03「Curse World」 参考 《呪城カース・ワールド》