2016/03/10(木)ようやく結果が出た

2016/03/10 22:25

月曜日から悩み続けていた問題が解決したので、まだ木曜なのにやりきった感でいっぱいです。あと一日残っているのか……。

西武菊池雄星1失点好投「結果が出てきている」 - 野球 : 日刊スポーツ

今回も駄目なようであれば、さすがに開幕投手にするのはどうなんだろうと思っていましたが、ようやくいいピッチングができたようで安心しました。来週の登板ではさらに調子を上げて、いい形で開幕を迎えられると嬉しいです。

西武山川3号ソロ「無我夢中。とにかくうれしい」 - 野球 : 日刊スポーツ

かなり開幕一軍が近づいてきたのではないでしょうか。さすがに中村、メヒアは簡単には外さないでしょうから、おそらく直接の競争相手は森くんになると思います。若い選手で競い合ってより高いレベルを目指してください。

2016/03/09(水)終わっていなかった

2016/03/09 22:51

デビューから139試合負けのなかった高木京介に初めての黒星をつけたのは週刊文春でした。

巨人高木京介投手が野球賭博関与 発覚4人目 - 野球 : 日刊スポーツ

かつて黒い霧事件という出来事がありました。その事件にもっとも多くの関与者を出した西鉄ライオンズは、1972年秋に福岡野球へ、そして1978年秋に国土計画へと身売りされることになります。所沢に移転した西武ライオンズ球団は、OBとの関係をこじらせてまで西鉄時代のことを無視し続けました。ここ数年で一気にまともになったとはいえ、野球賭博とはそのくらいイメージの悪い、ダメージの大きいことなのです。

今の選手たちは黒い霧事件のことを直接は知らないでしょう。しかし、つい最近までその爪痕は残っていたのです。それなのになぜこんなことができるのか、私には信じられませんし、その気持ちを知りたいとも思いません。二度と顔を見せるな。

ジャイアンツにはがっかりさせられました。なぜ昨年の調査の時点でわからなかったのか。なぜ「名前を貸しただけ」という怪しい弁明を追求できなかったのか。こんなことでは調査結果を信用しろと言われても無理な話ですし、ほかにも関与者がいるだろうと疑われても仕方がありません。

とはいえ、起きてしまったことは今さらどうしようもありません。NPBはこの機会に徹底した調査をしてください。今、このタイミングで膿を出しきらなければいけません。

2016/03/08(火)BPStudy#103で発表します

2016/03/08 22:54

今月22日に行われるBPStudy#103でLTをすることになりました。

BPStudy#103 - connpass

発表者の自己紹介で「ちなヤク」だの「ちな猫」だのといった単語が出てくるIT勉強会はBPStudyくらいのものでしょうね。

実は昨年12月に行われたBPStudy#100のときもLT枠に応募しようと動いていたのですが、残念ながら職場の忘年会と重なったために参加できなくなってしまいました。今回はそのリベンジになります。

今回の私の発表では、テキストマイニングによる新聞記事などの解析についてお話しします。プロ野球のことをある程度ご存じであれば、それ以外の前提知識は必要としません。ご興味のある方は、上記のリンク先より参加申し込みをどうぞ!

2016/03/07(月)台湾デー

2016/03/07 21:52

職場でインフルエンザが流行っているので、そろそろ自分の番なのかもと不安になります。もちろん、できる範囲で自衛していきたいとは思っていますが。

今シーズンも4/24(日)に台湾デーを開催!西武プリンスドームが台湾一色に!! | 埼玉西武ライオンズ オフィシャルサイト

言われるまですっかり忘れていましたが、C.C.リーも台湾出身でしたね。パ・リーグ全体としても台湾に向けて積極的に情報発信していますし、こういった試みはどんどん続けていってほしいと思います。そして、何点リードしていても最後まで気の抜けないライオンズの野球を、台湾の方々にも楽しんでもらえたらいいなと思います。

そういえば、昨年の台湾デーは先発の郭が序盤から打ち込まれ、それ以降も苦しむきっかけになるゲームでした。今年は郭→C.C.リーのリレーできっちり勝って、故郷のみなさんに格好いいところを見せられるといいですね。

2016/03/06(日)思うように進まない

2016/03/06 21:13

今日もひたすらMeCabの辞書構築とWord2Vecのパラメータチューニングを繰り返していました。

>>> from gensim.models import word2vec
>>> data = word2vec.Text8Corpus('blog.txt')
>>> model = word2vec.Word2Vec(data, size=200)
>>> result = model.most_similar([u'シアンフロッコ'])
>>> for line in result:
...     print line[0], line[1]
...
パグリアルーロ 0.910436034203
アイケルバーガー 0.898095309734
ぃ 0.859727859497
= 0.858209729195
ち 0.853448629379
トレンティーノ 0.850795507431
H 0.847611784935
アニラン6 0.847504138947
ロリ 0.845181703568
B 0.84384483099

1位、2位、6位は完璧というほかありません。しかし、その間の3つは完全にゴミですね。

記号に関しては無視するようにプログラムを組めば解決するでしょう。一方、「ぃ」「ち」は「ちぃといつ」を誤って分割してしまった残骸のように見え、ちょっと悩ましいところです。MeCabの辞書には「ちぃといつ」を追加してあるんだけどなぁ……。

もう少し単語のコストを下げて、優先的に抽出されるようにしたほうがいいのかもしれませんね。