はたらいたネット

かわいくておしゃれなはたらいた 視線が集まるそんなはたらいた

時代は馬連

f:id:bananawoma:20170314144616j:plain

ワイドは3連複総流し、複勝はワイド総流し、単勝は馬単総流し、馬単は3連単総流し。

じゃあ馬連って何?

分かりません。

 

でもこれって結構重要じゃないですか?という話。

 

三連複派から馬連派に

個人的な話ですが、これまで三連複派だったのですが、最近馬連派になってきている自分がいます。

これにはわけがあって、圧倒的一番人気って多分他の競馬ブログとかに書いてあると思うんですけど、3着内に来る確率ってすごく高いんですよね。

私は比較的穴党なので、圧倒的一番人気の馬は買いたくないんです。だって絶対買われすぎてるわけですから。

そういう事もあって、競馬では圧倒的1番人気が3着に敗れ、馬連のほうが三連複より何倍もつくという事がよくあります。

じゃあ馬連でいいじゃんねというげっすい理由で最近馬連派になりました。

よく、単勝1倍台の複勝率はものすごいという言説を見ますが、連対率でみると正直体感的に60%ぐらいなんじゃないかというのが私の体感です。

だから単勝2倍台ぐらいの一番人気は買いたくないのですが、3連複を買っている限り来ちゃうんです。

だから馬連派になりました。

 

単勝、馬単、3連単は1着を当てる馬券、複勝、ワイド、三連複は3着内を当てる馬券

さて、個人的な話はそっちのけにして、タイトルの話に戻ります。

私は馬券を単系馬券、複系馬券、馬連(枠連)という風に分けて考えています。単系=1着を当てる、馬連=連対を当てる、複系=3着内を当てるという風に機械的に考えています。

私も予想するときには◎〇▲△のように、馬に順列をつけて考えるんですがそれをもって、単系馬券を買う気にはあまりなりません。

だって順番通りに当てるなんて難しいじゃないですか。バッファが必要だと思うんです。そのバッファを考慮すると単系馬券のリスクというのはとてつもなく高いなと。

表裏買う、とかマルチで買うとかいう方法もあると思うんですが、人気→人気薄で決まったら複とほぼ変わらない配当で、逆で決まってもせいぜい2倍の配当なら旨みないと思うんです。

一方の複系の話ですが、3連複って結構な確率で一番人気か2番人気が絡むのでなんか終わってみたら人気薄2頭で1,2着なのに数万馬券程度という事がよくあります。

なんだったら、万馬券にならないこともよくあります。

これはよくありません。こっちはリスクを背負って一番人気を嫌っているんだからもっとついてくれないと。

そんな時に出会ったのが馬連です。私が競馬を始めたときの主流馬券馬連。馬連に生まれ馬連を愛した男、空前絶後の馬連です。

実は最近馬連をベースにしてから調子がいいんです。

昔、浦和レッズの負けないよ!さんが負けないよ!って言ってから連敗してJ2落ちしたという悲劇があるので、負けないとは言いませんが、感触的にはよさげな感じがしています。

負けないよ!

NextPhase--

とはいえこのままでいいとは思ってません。進化しなければポケモンではありません。

今後は馬連で負けない馬券の買い方をしながら、旨みのある三連複を買い足して大勝ちを狙う。

そういう姑息な馬券の買い方ができる人間になりたいと思います。

でも3連単、お前はだめだ。信用ならん。

現場からは以上です。

ノートパソコンに外部ディスプレイをつけたら家での生産性が上がった件

f:id:bananawoma:20170117111434j:plain

当たり前の話かもしれませんが、という前置きで、PCに向かう環境というのは生産性に大きくかかわってきます。

そこで今回は生産性を上げるために、買ってよかったと思うものを上げていこうと思います。

ディスプレイ!

まず、圧倒的に生産性が変わったものは外部ディスプレイです。

 

BenQ モニター ディスプレイ GL2460HM 24インチ/フルHD/TN/HDMI端子搭載

BenQ モニター ディスプレイ GL2460HM 24インチ/フルHD/TN/HDMI端子搭載

 

 

本来は、ノートPCの画面とダブルモニタで使用する予定で購入したものですが、むしろこちらばかり使っています。

モニタ自体はHPの型落ちもので実は、HDMIも対応していないものなのですが、HDMI変換ケーブルを使ってノートPCに接続しています。

 

PLANEX HDMI-DVI変換ケーブル 2.0m PL-HDDV02

PLANEX HDMI-DVI変換ケーブル 2.0m PL-HDDV02

 

 私の場合予算の都合上このような構成にしましたが、普通に余裕のある方は普通にHDMI対応とかもっと進んだものとかのいいモニターを使う事をお勧めします。技術の進歩は日進月歩です。

 

ノートPCと外部モニタのデュアルモニタは使いづらい

ただ当初の目的のデュアルモニタでの作業環境の構築というのは達成できていません。一番の理由はモニタのサイズが違うというのと、モニタの高さが違うというところでしょうか。

もう少しレイアウトを工夫すればいいのかもしれませんが、外部モニタの高さとノートPCのモニタの高さは物理的に違うので結構首を動かさなければいけません。

それをやるぐらいなら、外部モニタだけでいいや、という感じになってしまって、ノートPCのモニタはほとんど見ていない感じです。

 

デュアルモニタのために

しばらくはいいかと思っているのですが、外部ディスプレイでこれだけ生産性が上がったので、デュアルモニタに食指が伸びます。

ただ、まだ他に優先すべき環境があるので、(ダイニングチェアを何とかしたいとか、USB3.0ハブとか)ちょっと後回しになりそうです。

モニターアームと、ノートPCホルダで並べたらもう少しデュアルモニタを活用できるかもとも思いますが、中古の型落ちモニタをUSB3.0接続とかで追加するほうが早いかもしれません。

 

そんなこんなで、デュアルモニタ計画はとん挫したものの、外部ディスプレイをつけたら昨日までの私が、シンデレラになってガラスの靴を手に入れた気分です。

うっひょー。

FISH Feed&Grow攻略法 単純だけどハマるブラウザゲーム

f:id:bananawoma:20160926170603j:plain

FISH Feed&Growとは

FISH Feed&Grow とはUnityで提供されているブラウザベースのゲームです。

ブラウザバージョンは無料でプレイでき、有料版は1200円となっております。

ゲーム内容はいたってシンプルで、海(有料版は川などもあり)で魚となって、生き残り続けるというゲームです。

魚となった主人公は、きれいなグラフィックの海を動き回り、マウスの左クリックで他の魚を攻撃し、右クリックで他の魚を食べます。

他の魚を食べ一定の経験値を得ることで体が大きくなっていき、他の大きな魚にも対抗できるようになっていきます。

現実と違うのはオコゼのような魚で初めてもレベルが上がるにつれて際限なく体が大きくなっていくので、最終的にはハンマーヘッドシャークや古代魚、ホホジロザメなども捕食できるようになることです。

魚版島耕作とでもいえるでしょうか。

体験版は下のサイトでプレイできます。

Game Jolt - Indie games for the love of it

 

FISH Feed&Growの攻略法

FISH Feed&Growではとにかく食べて大きくなることが正義です。

大きさ=強さみたいな部分があり、レベルを上げて大きくなることで他の魚から捕食されるのを防ぐというのが、唯一の攻略法になります。

特に小さな魚から始める場合はレベル10ぐらいになるまでは、他の魚に食べられる可能性が非常に高いので、大きな魚に近づかないことが最優先になります。

とりあえず、レベル10になるまでは、イソギンチャクやヒトデ、カニなど攻撃してこないNOT魚を食べ続けてレベルを上げていくのが重要になります。

さらに分けると、レベル5ぐらいまでは、イソギンチャクとヒトデに絞ったほうが楽です。

なぜかというとカニは固いのです。カニを食べられるまで(肉になるまで)攻撃している間に他の魚に攻撃されるとひとたまりもありません。

そのため、レベルを5ぐらいに挙げるまではイソギンチャクとヒトデを食べながら逃げ回ることをお勧めします。

レベル5ぐらいになると楽にカニが食べられるようになります。カニは比較的経験値が高いので、浅瀬(カニの生息地)に行き一気にレベルを上げてしまいましょう。

 

シャコには注意

さて、先ほどNOT魚でひとくくりにしましたが、注意しないといけないのがシャコです。シャコは魚じゃないくせに攻撃してきます。また、なかなか攻撃力が高いので曲者です。丸呑みできる大きさになるまではシャコには手を出さないことをお勧めします。

 

ホホジロザメはラスボス

さて、レベルが100を超えハンマーヘッドシャークや古代魚を捕食できるようになったからと言って安心してはいけません。

なぜかというとホホジロザメだけは強さが別格だからです。

どれぐらい強いのかは実際に体験してみてください。まさにラスボスです。

 

息子がはまって困る

さてこのゲーム、実は私自身はそんなにしていないのですが、息子がはまってしまって、私のPCでプレイするものだから困っています。

でもまあそれぐらい中毒性の高いゲームという事なんだと思います。

自分もやり始めると長時間続けてしまう事があるので、あえて触らないようにしています。

もしあなたが時間が余って仕方ないという事であれば一度されてみてはいかがでしょうか。

Game Jolt - Indie games for the love of it

 

 

書評:詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~

f:id:bananawoma:20170616170148j:plain

前回書いた通り、Seq2seqチュートリアルをカスタマイズするという機会がありまして、その勉強のために何冊か参考書籍を購入したのですが、タイトルにも挙げている「詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~」が非常に参考になったので、書評というか、紹介したいと思います。

 

詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~

詳解 ディープラーニング ~TensorFlow・Kerasによる時系列データ処理~

 

 

ゼロから丁寧に説明

これは表紙に書いてある通りなのですが、0から丁寧に説明してくれます。

まず、この書籍はTensorFlow・Kerasによる時系列データ処理(最終的には応用的なRNN(リカレントニューラルネットワーク)の実装までを追って学習できる本です。

こういった本の場合、(本当の入門書でなければ)基本的に、ある程度の深層学習の知識や、NN(ニューラルネットワーク)についての仕組み、またそのもととなる数学知識などは事前知識として求められる印象です。

しかしこの本の場合、まず初めの章で基礎となる数学知識を、その次に単純なニューラルネットワークモデルを、その後、畳み込みニューラルネットワークを学んだあとに、リカレントニューラルネットワーク、さらにその応用と順を追って学んでいくことができます。

時系列データの処理については、主にリカレントニューラルネットワークが使われることが多いと思いますが(最近では畳み込みニューラルネットワークでリカレントニューラルネットワークよりも高い精度のものがあるというニュースを何かで読みましたが)正直、いきなり手を付けるにはとてもハードルの高いものでした。

 

そういう意味でこの本は、NNの概要をほんのちょっとかじっただけの私、頭がこんがらがっていたところに、やってきた天の助けみたいな本でした。

 

Tensorflow、およびKerasのサンプルコードが豊富

また、この本にはTensorflowおよびKerasのサンプルコードが豊富に載っています。ふつうこういう本の場合、理論に終始している、もしくはTensorFlowならTensorFlow、ChainerならChainer、Torch(Lua)ならTorch(Lua)など単一のライブラリについて記載されていることが多いのですが、この本の場合、人気のライブラリであるTensorFlowとそのラッパーライブラリである(Theanoのラッパーライブラリでもあります)Kerasのコードが載っているので、理解のスピードが1.3倍ぐらい(体感)で感じられます。

またこの組み合わせがいいのは、TensorFlowがちょっといろいろめんどくさいライブラリであるのに対して、Kerasはそのめんどくさいところを排除したライブラリなので、簡単なモデルを試すならKeras、ちょっと深く理解したいならTensorFlowと分けてみることができるところです。

やっぱり専門家でもない限り理論をいろいろ勉強するよりコードを見たほうが早いじゃないですか(偏見)

そういう意味でも二つのライブラリの例が載っているこの本は私にとってはマーベラスな本だと感じました。

 

時系列データ処理の入門書にいいですよ

正直時系列データ処理ってよくわからなかったんですが、順を追ってみていくとどのようなものかわかった気がしています。

もしかすると初学者以外には物足りない内容かもしれません。

しかし初学者については、順を追って学習できる点。複数のライブラリでの実装を確認できる点の2店でこの本は非常におすすめだと思います。

Kerasは使ったことないですが、複雑なものでなければTensorFlowより使いやすそうだなという感想を持ったので、時系列データ未経験かつ興味のある方、誰か私の代わりにこの本を使ってKerasで時系列データ処理をしてみてくれませんでしょうか。

Tensorflow1.0~1.1でSeq2Seqチュートリアル(RNNCell)を使う上での注意点

f:id:bananawoma:20170111122413j:plain

TF1.xでのSeq2Seqチュートリアルの挙動

最近tensorflow1.0でSeq2seqチュートリアルをカスタマイズする機会があったのですが、なかなかハマったので忘備的に記録を残しておこうと思います。

結構、同じようにハマっている方がいらっしゃったみたいですが外国の方が多かったようなので日本語で。

TF0.12からTF1.0への変更点については、日本語化されたドキュメントも多数ありますのでそちらに譲るとして、Seq2Seqチュートリアルをカスタマイズするうえで記載されていない変更点があり、それに苦労しました。

どうもTF1.2ではその対策が取られているみたいですが、詳しく読んでいないので割愛します。

RNNCellの仕様変更

その変更点というのは、RNNCellの仕様変更という部分なのですが、RNNCellの再利用のルールが厳しくなっており、単純にコードを1.0化するだけでは使えないという問題が発生しました。

ValueError: Attempt to reuse RNNCell <tensorflow.contrib.rnn.python.ops.core_rnn_cell_impl.BasicLSTMCell object at 0x10210d5c0> with a different variable scope than its first use. First use of cell was with scope 'rnn/multi_rnn_cell/cell_0/basic_lstm_cell', this attempt is with scope 'rnn/multi_rnn_cell/cell_1/basic_lstm_cell'. Please create a new instance of the cell if you would like it to use a different set of weights. If before you were using: MultiRNNCell([BasicLSTMCell(...)] * num_layers), change to: MultiRNNCell([BasicLSTMCell(...) for _ in range(num_layers)]). If before you were using the same cell instance as both the forward and reverse cell of a bidirectional RNN, simply create two instances (one for forward, one for reverse). In May 2017, we will start transitioning this cell's behavior to use existing stored weights, if any, when it is called with scope=None (which can lead to silent model degradation, so this error will remain until then.) 

github.com

 実際のエラーメッセージを上げると上記のエラーになります。同じ変数を違う名前空間で使用することができないといった内容でしょうか。

チュートリアル上でいうと、TF0.12対応のチュートリアルでは、エンコーダで使用するRNNCellとデコーダで使用するRNNCellが同一のものが使われているのですが、仕様上それができなくなったようです。

そのため、エンコーダとデコーダのRNNCellを分けて定義する必要があります。

また、multiRNNCellの定義の仕方をMultiRNNCell([BasicLSTMCell(...)] * num_layers), から MultiRNNCell([BasicLSTMCell(...) for _ in range(num_layers)]).に変えないといけないという指示も出ています。

おそらく、チュートリアルを動かすだけの場合はこの対応のみで回るんでしょうが、今回はカスタマイズしたため、全体的にRNNCellの定義を変更する必要が出てきました。

 

RNNCellが再利用されるべきものか新たに定義すべきものか

ここで気を付けたのが、RNNCellがどのような動きをすべきかというところです。

再利用されるべきものの場合名前空間(VariableScope)に引数として、Reuse=Trueを追加するという対応になりますが、別のものの場合Cell自体の変数定義を別に使用しないといけません。チュートリアルのSeq2SeqModel.pyではRNNCellを別の関数間で再利用しているものがあるので、形は同様の別のRNNCellを利用する場合は新たに変数としてCellを定義してやらないといけません。

同ファイルではDeepCopyという関数を使ってそれを行っていますが、どうもうまくいきません。(DeepCopyでは同じものを使っていると認識するのでしょうか?ごめんなさいよくわかりません)

結構長期間の格闘の末、何とか動くようにはなりましたが、どうもTF1.0~1.1でSeq2Seqチュートリアルを行うのは無理筋のようです。(URLは失念しましたが調べている間に同バージョンでSeq2Seqチュートリアルを使用するのは非推奨という記載も見かけました)

 

Seq2Seqチュートリアルを利用する場合は0.12のままで、もしくは新たなチュートリアルの登場を待ったほうがよさげ

TF0.xのSeq2Seqライブラリについては、TF1.xではregacy_seq2seqライブラリとして遺産的に扱われています。変更を加える予定で(1.2ですでに変更されているかもしれませんが)残されているような形になっています。

今回の1.2への変更でRNNCell周りの仕様が大幅に変更されているっぽいのでそれを基に新たなSeq2seqチュートリアルが出てくるかと期待しているのですが、現状Seq2seqチュートリアルをカスタマイズする場合はTF0.xで行うほうがよさげです。

 

スピード指数特化型競馬予想ソフトの限界

f:id:bananawoma:20160926170603j:plain

初めに、安田記念を振り返って

安田記念、非常に面白いレースでした。

前年のスローを見事に逃げ切ったロゴタイプですが、今年の安田記念ではモーリスという決定的な目標馬がいない中、去年の安田記念は再現性が低いと8番人気の低評価。

実際に、今年の安田記念はそれなりに流れる展開となり昨年とは違う前半の早い流れた逃げを打つことになりました。

しかし、ロゴタイプはしっかり残り2着を確保。他の掲示板馬が後から言った馬ばかりの中見事な競馬と言えると思います。

 

さてこのロゴタイプですが、去年の安田記念の印象が強すぎて流れたレースになると向かないと評されていたようですが、実はそんなことはありません。

実は2013年の皐月賞や、2015年の中山記念など流れるレースでこそ実績を出してきた馬です。

血統的にも父方が地力勝負に強いサドラーズウェルズにさかのぼる血統であったり、母方にリズンスターが入っていたりと最近はやりの上がり勝負どんと来いという血統ではありません。

それが8番人気なのですから、結果論として美味しい馬と言えたと思います。

 

また勝ったサトノアラジンもいいレースをしました。能力はあるものの不利を受けたり、展開に注文がついたり非常に難しい馬です。前走のちぐはぐな競馬が評価されてこちらも7番人気の低評価でした。

鞍上の川田騎手は余り後ろのほうで器用に立ち回る印象のある騎手ではありませんが、外枠を活かし、スムーズな競馬、3コーナーに入ったあたりで勝ったなと感じさせるナイスレースでした。

 

スピード指数特化型競馬予想ソフトの限界

さて、自慢です。自慢になってない気もしますが。

 

上記のようなことがあり、今回は馬券を見事に当てることができました。

しかし、サトノアラジン、ロゴタイプは今回4番手5番手評価。これらを本命対抗にしたのはツイッターにも書いた通り距離短縮組のステファノス、アンビシャスの評価を私が勝手に下げたためです。

スピード指数で能力を図る、という事は(馬場を考慮したうえで)その馬の走破タイムを評価するという事になります。

ポテイトーズは過去何走かのデータを評価しているため、近走実績を基にどれぐらいの走破タイムで走れるポテンシャルを持っているか、また、それを今回発揮できるか、という点のみを評価しています。

 

そのため、距離短縮組はペースについてこれなくなって厳しいだとか、藤原厩舎は休み明けを使って仕上げてくことがあるので、ステファノスは叩き2戦目の前走が買いタイミングであるとかそういう情報は全く入っていません。

(大阪杯はステファノス本命でした)

このスピード指数はトータルでの3着内率を導き出すには非常に便利な指標なのですが、上記のようなことが反映されていないためレース個々を評価するのは苦手なんです。

今年のダービーも苦手なレース

さらに言うと今年のダービーも苦手なレースでした。馬場状態でいえばタイムが早く、前に行っても残れる馬場、かつ、横山典弘ジョッキーの巧みなレースづくりによる異様なスローペース。いわば位置取りのハンデを付けた残り数100mの短距離走の様相を呈しています。そうなるとスピード指数は無力です。馬の能力の傾向はわかっても、必要なのは前につけられてかつ早い上りを出せる馬はどれかを探すレースになってしまいます。

そのため指数上位3頭(アルアイン、レイデオロ、ペルシアンナイト)の中から、一番前につけられるだろうアルアインを本命にしたんですが、まさかのレイデオロが途中で動くというファインプレーでした。(ペルシアンナイトも同様に動きましたが、最後伸びませんでしたね。ハービンジャーが悪さしたのでしょうか)

指数派の人には、出足の指数、上がりの指数なども考慮している人もいると思いますが、ポテイトーズはそういうのは全く考慮していません。フラットな実力勝負になったときどの馬が勝つ確率が高いかを出しているだけです。

そのためダービーのようにルメールジョッキーの好騎乗がすべてのようなレース(もちろん指数上位でしたしレイデオロの能力に疑いはありません)は苦手です。

 

さらなる精度向上のために

最近の競馬はもう展開次第というのが正直な感想です。

つまり与えられたデータから展開をどう読むかというのが精度向上のカギになってくると思います。

展開なんぞ読まなくても美味しい馬を選んでその馬券を買うという手法はかの有名な馬券裁判や、イギリス?香港?の投資筋の3連単馬券脱税もありある程度手法として確立しているのかなというのが実感です。

そのため、三連複の美味しい馬券は思ったよりつかないというのが実際に運用してみた感想です。

統計から、投資的に馬券を買う余地はまだまだ残っているものの、システム競馬予想のフェーズは精度向上も重要な要素になってくるなと。

システム馬券2.0は機械学習や強化学習を使用したいと思っているのですが、具体的なアイデアはまだまだわかない今日この頃です。

edX PH526x Using Python for Research を修了してみた

f:id:bananawoma:20170117122719j:plain

こんにちは。お久しぶりです。

はたらいたです。

 

今電脳賞用のライブラリをPythonで作ってみているんですが、そもそもPython自体をそこまで理解しているわけではなかったので、edXの「Using Python for Research」を履修してみました。

 

今回は、この講義の感想などをつらつらと書いていきたいと思います。

 

edXとは

edXとはハーバード大学やマサチューセッツ工科大学などが参加するMOOCsで、大学レベルの講義をオンラインで無料で提供しているサービスです。

履修証明書Cirtificateを受け取るにはいくらかのお金がかかりますが、基本的に講義を受けたり、課題を提出する分には無料です。

同様のサービスとしてスタンフォード大学などが参加するcourseraなどがあり、スタンフォード大学の機械学習コースなどが有名ですが、それ以外にもテック系、データサイエンス系、だけでなくビジネスマネジメントやリベラルアーツなど様々な講義が公開されています。

PH526x Using Python for Researchとは

私が履修したコースはハーバード大学が監修する、Pythonをリサーチに使うための入門講義です。

入門講義とはいえ、Pythonの基本的な使い方から、numpy、matplotlib、pandasなど、データ分析に必要なライブラリなどの演習などを網羅的に学ぶことができます。

講義のレベルはIntermediate(中級)となっております。

本当にプログラム初心者の方は他の入門コースを履修することをお勧めしますが、他の言語を習得しているひとで、pythonに興味がある人については、難しくない内容となっておりますので、おすすめです。

因みに私はC#とVB、VBAはある程度理解している状態でのスタートでした。

 

今更だけどPythonは書きやすい

さて本当に今更な話題で申し訳ないのですが、VB、C#からPythonに移行してみて感じたことは、本当にきれいで書きやすいプログラム言語だという事です。

なんというのでしょうか、私のような初学者でもすんなりと入ってくるようなコードに美しさを感じました。

VBやC#だとどうしても長くなってしまいがちなコードでもPythonであればきれいに書けます。(もちろんVBでもきれいに書くことは心がけていますが)

 

今更だけどPythonはライブラリが豊富

さてまたも本当に今更な話題で申し訳ないのですが、Pythonはライブラリが豊富です。

今回の講義ではNumpy,matplotlib、pandasを使用しましたが、非常に使い勝手はよく感じました。特にNumpyやPandasはPythonの弱点である遅さをカバーしてくれるしPython信者になってしまいそうです。

今後テンソルフローをやってみたいと思っているのですが、こういう色々なライブラリに対応しているのもPythonの強みだと思います。

 

話は戻ってPH526x Using Python for Researchの感想

これについては履修して非常に良かったと思います。

個別の課題は難しくもなく簡単でもなく、すんなりと入ってくる内容になっています。

またPythonの便利さや、今後の学習の指針になるような示唆に富んだ講義になっています。

ただ、courseraの機械学習コースとは違い日本語字幕があるわけではありません。

全編英語なのがなかなかの曲者です。

 

しかし、先生の英語は非常に聞き取りやすくわかりやすいのである程度の英語知識があればすんなりと入ってくるレベルです。

また、再生速度を変更する機能もついているので、もしわからない場合はゆっくり再生、わかる場合は高速再生などをできるのもありがたいところです。

私の場合は、時間短縮のため、基本1.5倍速で聞いていたのですが、それでもすんなり入ってくるぐらいわかりやすい英語なので、英語コンプレックスがあっても大丈夫だと思います。

 

他のPython入門コースも気になる

さて、今回はハーバード大の講義を受けましたが、edXにはコロンビア大学や、MIT、マイクロソフトなど他の機関が提供するPython入門コースも存在します。(しかもどれもデータアナリスティックに特化したものです!)

さらに敷居を低くすれば本当のpython入門もあるのですが、これはググれば出てくるレベルなので、わざわざ講義を受ける必要もないのかなというのが感想です。

データアナリスティックについてPythonを使うと考えた場合今回のコース履修は非常に有用だったと思うので、他の講義がどんな内容なのか比較するのも面白いかなと思うのですが、それは時間があったらします。

 

私が言いたいことは一つPython面白い!