東京マルイ M870ガスショットガンが凄い

標準

皆さんこんにちは。鳩屋です。今までずっと執筆をサボってて三人共同管理とはとは名ばかりの状態でしたが、いい加減なにかしないと空気になって吸われてしまうので「東京マルイ M870ガスショットガン」のご紹介をさせていただきます

実銃M870はレミントン・アームズ社の傑作ショットガンM31の後継機にあたるもので、
民間の狩猟用や警察、軍事などいろんなところに引っ張りだこのショットガン界のアイドルちゃんらしい
なにやら日本国内向けに装弾数を減らしたモデルも存在するらしいので、所定の手続きを踏めば所持できるかもですネ
個人的にはゾンビに向かってぶっ放すアレのイメージで、購入理由もゾンビ映画ごっこしたかったからというミリタリーそっちのけの理由であります(´・ω・`)

じゃ、ブツのお披露目に移りましょ

でーん

やべえ(゚∀゚)
なんだこの未体験の凄味は・・・黒で引き締まった近代的な佇まいの中に香るビンテージな雰囲気のライフルタイプグリップといい、荒々しい力を持っているのにも関わらずのスマートでさっぱりとしている、でも決して薄味感はない適度な雰囲気といい・・・・・・・
上品ッ!上品すぎるッ!上品すぎるよッ!v(´∀`*v)

上品な勢いで細部のレビューへと行ってみましょう

先ずはグリップ部分

さすが国産というところでしょうか、チェッカリングには乱れもなく、薄く細身で手にスッと収まる感じ・・・
ピストルグリップにはない感触の素敵なカタチをしてます。

それからそれから


こちらはトリガー周辺の様子
ああ^~
ショットガンではお馴染みのクロスボルトセーフティです。
右側に赤いマークが出たら発射可能になります。
急な解除には少し慣れが必要かな(´・ω・`)

 


エジェクションポートちゃんだね
うん・・・良い意味で普通だね!


開くとこんな感じ。
マルイさん独自メカの3発6発切り替えメカが顔をのぞかせてます
エジェクションポートはここまでしか開かないのでちょっとさみしい

フォアエンドは滑り止め付き
MCSタイプとは違い、スッとしててすっごい好みな部分
素手でもグローブでも滑りはなし!
トリガー引きっぱなしでフォアエンドを前後させればバババババッっとラピットファイアができます
でも銃に対して捻じれなく持たないと引きづらい・・・
だとしても!引いた時の「ジャキン!!」という金属音はマジで痺れます(゚∀゚)
もう一回言います。ほんとに痺れます。いやマジで

銃の要、サイトをのぞいてみると・・・

こんな感じ
大きく取られたゴーストリングサイト、めっちゃ合わせやすいです。
完全にCQB向けのサイトですので、遠方を狙うのにはちょっと注意が要るかな・・・?

外装関連はざっとこんな感じです

10月の初頭、千葉のCIMAXさんの定例会で実戦投入してみたのですが、

むっちゃたのしい

フォアエンドを引くたびに脳汁がドバドバ出てきてハイになるし、
実銃に似たマガジンの装填方式もサバゲのロマンとワクワク感を掻き立てまくりです( *´艸`)
さらにそれほどガスガン向けの気候ではなかったにも関わらず、77m/sというなかなかな初速を出してくれました。
ただ、0.2gBBだとどうしてもフライヤーの発生率が高いですね・・・
ですが0.25gBBに変えたところうって変わって大量のBB弾がドバっとまとまって飛び出し、少し散りつつ30~40mぐらい飛ぶ
という理想的な弾道になってくれました。ここでもやっぱり脳汁が噴出しました(゜∀。)

で、評価は
外見 :★★★★☆
やっぱり金属フレームとガッと黒い樹脂の共演はカッコイイ。
ワガママを言うとエジェクションポートをもちっと何とかしてほしかった(;´∀`)
でもやっぱりショットガンはイケてるヤツだぜ!
操作感:★★★☆☆
フォアエンドの引きには意外と慣れが必要かもしれない・・・?
まっすぐ引いてコッキングしてあげることがポイント!
でも前述した通り金属音はマジで最高!ほんとマジで最高!!!!!!!
射撃性能:★★★★★
冷えにもしっかり強く、7本ほどシェルマガジンを使ったけど息切れはほぼなし!
マルイさんが電動ガンと互角と謳うだけあって制圧力も抜群!
弾を0.25gにすればあなたも弾を一斉に発射するショットガンの醍醐味がガッツリ味わえるハズ!
こいつぁホント大満足だぜェ!Σb( `・ω・´)

ほんとヤバイヤバイヤバイ・・・(語彙喪失)

ヤバイヤバイヤバイ

ヤバイヤバイヤバイ

ヤバイヤバイ

・・・・

買おうかどうか迷ってるそこのアナタ! この子はマジで買いですぜ!
ぜひともクールなショットガンライフを送ってみませんか?
以上、私の記事が購入の決め手になってくれれば幸いです

それではまた~(_´Д`)ノ~~

word2vecでWikipediaのダンプを扱う

標準

今回、ある大学の研究室見学に赴いたところ自然言語処理をしているところが有りまして、そこでword2vecという単語をベクトルとして表現するというツールが存在することを知りまして、早速自分でも試してみました。今回はUbuntuを使っていきますが、word2vecは3GB以上のメモリが無いと正常に動作しないので、特別にメイン機をエミュレートして実験しました。

Wikipediaのダンプをダウンロード

まずはwikipediaのダンプファイルをダウンロードします。これは、日本語版のWikipediaの全文が収録されていて、これを日本語のモデルとして学習させます。cURLで任意のフォルダーにダウンロードしてください。約2GBちょいあるので、扱いには気をつけてください。

curl https://dumps.wikimedia.org/jawiki/latest/jawiki-latest-pages-articles.xml.bz2 -o jawiki-latest-pages-articles.xml.bz2

次にダウンロードしたダンプファイルをテキストファイルに展開します。500個ほどファイルが生成されます。こちらもそれなりに重い作業で数時間かかります。

rbenv exec wp2txt --input-file jawiki-latest-pages-articles.xml.bz2 

上の展開で生成された500個以上のテキストファイルを1つにまとめます。catファイルでコマンドラインに出力するものをそのままテキストに流し込んでいきます。

cat jawiki-latest-pages-articles.xml*.txt > jawiki-dump.txt

jawikiをまとめる
このようにひとつのファイルに纏まっていきます。(画像は実行途中なので、ファイルの重さも軽いです。)

辞書をダウンロードする

この時点でダンプファイルがテキストファイルの状態で1つにまとまっていると思います。それをこれから品詞分解していきます。ここで、品詞分解をする辞書として「mecab-ipadic-NEologd」を使っていきます。この辞書は常に最新の日本語が収録されているので、品詞分解の精度はピカイチです。多くのサイトでは品詞分解を標準のものでやっていますが、ここではこちらを使っていきます。

まずは前提パッケージをインストールします。

sudo apt-get install mecab libmecab-dev mecab-ipadic-utf8 git make curl xz-utils file

パッケージをインストールし終われば、辞書をダウンロードする準備が整ったので以下のコマンドを走らせます。

//githubからクローンを取る
git clone --depth 1 https://github.com/neologd/mecab-ipadic-neologd.git

//ディレクトリー移動
cd mecab-ipadic-neologd

//インストール
./bin/install-mecab-ipadic-neologd -n

mecab-ipadic-NEologdインストール中

このように辞書がインストールされていきます。

この実行が終了すれば最新の辞書がダウンロード出来ました。ついでにインストール先を調べるために以下コマンドも走らせます。出力を控えておきましょう。

echo `mecab-config --dicdir`"/mecab-ipadic-neologd"

ダンプファイルを品詞分解する

さて、いよいよ品詞分解していきます。ここでは、品詞分解と言っても全ての品詞を解析していくわけではなく「分かち書き」という表記にしていきます。分かち書きというのは、単語ごとにスペースを挟んだ表記法です。これでword2vecに単語を認識してもらえるようにします。

cat jawiki-dump.txt | mecab -d /usr/local/lib/mecab/dic/mecab-ipadic-neologd -Owakati -b 81920 > jawiki-wakati.txt

ここでの辞書のパスは控えておいたmecab-ipadic-NEologdのパスを入力してください。また、「-b 81920」を指定しないとバッファ不足かなにかでエラーを返されます。このコマンドが実行されると、jawiki-wakati.txtという名前で分かち書きが施されたダンプファイルが生成されます。これがword2vecの食べ物です。

word2vecに読み込ませる

いよいよword2vecに読み込ませていきます。ここまで仮想環境でも相当の時間がかかりましたが、ここが正念場です。頑張っていきます。以下のコマンドを走らせます。

time ./word2vec -train jawiki-wakati.txt -output jawiki-train.bin -size 200 -window 5 -sample 1e-3 -negative 5 -binary 1

word2vec解析中

このようにして出力が始まります。Wikipediaのダンプに収録されている単語は合計11億語くらいで、そのうち実際に語彙となったのは170万程です。

私の仮想環境ではコマンドが遂げられるまで8時間近くかかりました。仮想ということもあるのでしょうが、結構重いです。このコマンドが終了するとjawiki-train.binというファイルが生成されます。これが日本語の学習データです。これを使うと色々と日本語で遊ぶことが出来ますので、その部分は次回に。