• Stars
    star
    430
  • Rank 101,083 (Top 2 %)
  • Language
    Jupyter Notebook
  • License
    Apache License 2.0
  • Created almost 7 years ago
  • Updated over 1 year ago

Reviews

There are no reviews yet. Be the first to send feedback to the community and the maintainers!

Repository Details

Pythonで学ぶ強化学習 -入門から実践まで- サンプルコード

Pythonで学ぶ強化学習 -入門から実践まで-

Pythonで学ぶ強化学習 -入門から実践まで-の実装コードリポジトリです。

誤記、またサンプルコードの実行エラーについてはIssueで管理しています。

Issue List

誤記/表記についての指摘、またサンプルコードの実行エラーについてはIssueにてご連絡をお願いします。

  • 既に同じIssueが上がっていないか、事前に確認をお願いします。
  • 実行エラーについては、テンプレートに沿い実行環境、発生エラーについて記載をお願いします。

Index

Support Content

Setup

サンプルコードをダウンロードするのにGit、実行をするのにPythonの環境が必要です。そのため、以下2つのソフトウェアをダウンロードし、インストールしてください。なお、本書ではPythonの環境を作成するのにMinicondaを使用します。

  1. Git
  2. Python (Miniconda)
    • ダウンロードするのは、Python3の方です

インストールが終了したら、まずソースコードのダウンロードを行います。ターミナル/コマンドプロンプトを開き、作業するディレクトリで以下のコマンドを実行してください。

git clone https://github.com/icoxfog417/baby-steps-of-rl-ja.git

コマンドを実行すると、baby-steps-of-rl-jaというディレクトリが作成されていると思います。これで、ダウンロードは完了しました。ダウンロードしたフォルダに移動しましょう。

cd baby-steps-of-rl-ja

続いて、ソースコードの実行環境を作成します。実行環境を作成するのに、Minicondaをインストールすることで使えるようになるcondaコマンドを使用します。これから、本書の実行環境であるrl-bookという環境を作成します。

conda create -n rl-book python=3.6
conda activate rl-book

conda activateを実行することで、ターミナルの先頭に(rl-book)がついたでしょうか。これが、実行環境が有効化されているサインです。本書のソースコードを実行する際は、まず実行環境が有効化されているか=(rl-book)が先頭についているか、を確認してください。なお、無効化する際はconda deactivateのコマンドを実行します。

実行環境に、実行に必要なライブラリをインストールします((rl-book)が先頭についているか確認して実行してください)。

pip install -r requirements.txt

以下のように、welcome.pyを実行してみてください。ゲーム画面が立ち上がればセットアップは完了です。

python welcome.py

Setup with GPU

Day4で深層学習を利用した強化学習を実装していますが(DQN/A2C)、この学習にはGPUが不可欠です。GPUがない場合、学習に数日はかかります。

GPUを利用した学習には、当然GPUが必要です(より具体的には、NVIDIAのGPUです)。GPUを調達する方法は、以下2つです。

  1. GPUを搭載したマシンを用意する
  2. クラウド上でGPUを利用する
    • クラウドプラットフォームのGPUインスタンスを利用する
    • Google ColaboratoryでGPUを利用する

Local GPU Machine Setup

GPUを搭載したマシンがある場合、以下3つのステップでセットアップを行います。

  1. NVIDIA Driverのダウンロードとインストール
    • NVIDIAドライバダウンロード
    • 基本的には、自動でダウンロードすべきドライバを選んでくれます。選んでくれない場合、手動で選択してダウンロードします。
  2. CUDA Toolkitのインストール
  3. cuDNNのインストール
    • cuDNNをダウンロードし、Toolkitのフォルダに展開します。なお、cuDNNのダウンロードにはユーザー登録が必要です。
  4. tensorflowの代わりに、tensorflow-gpuをインストールします(tensorflowがインストールされている場合、アンインストールしてください)。

import tensorflow as tfを実行し何もエラーがでなければセットアップは完了です。

> python
>>>  import tensorflow as tf

Cloud GPU Machine Setup

AWSやAzure、GCPではGPUインスタンスを提供しています。それらを使用すれば、GPU搭載マシンを用意する必要はありません。GPUインスタンスでのセットアップ手順はLocal GPU Machine Setupと同じです。セットアップ済みのインスタンス(SageMakerなど)の場合、セットアップの必要もありません。

GPUインスタンスの使用には当然料金がかかります。そこで、無料でGPUを使用した計算ができるGoogle Colaboratoryを紹介します。

Google Colaboratoryは、オンライン上でJupyter Notebookが使えるサービスです。GPUを使った計算も行うことができます。ただ、実行時間が限られています。長期の実行は行えませんが、可能な範囲で学習してモデルをダウンロードするには十分使えます。

Day1: 強化学習の位置づけを知る

Day1's Goals

  • 強化学習と、機械学習、人工知能といったキーワードの関係を理解する
  • 強化学習以外の学習法に対する、強化学習のメリット・デメリットを理解する
  • 機械学習の基本的な仕組みを理解する

Summary

  • 強化学習とは?
    • 強化学習 ⊂ 機械学習 ⊂ 人工知能。
    • 機械学習 = 「機械」(=モデル)を「学習」させる手法。
    • 強化学習 = 「学習」方法の一種。
    • 強化学習は、連続した行動を通じて獲得できる「報酬の総和」を最大化することを目的とする。
    • 行動の評価方法と、(評価に基づく)行動の選び方(=戦略)を学習する。
  • 強化学習のメリット・デメリット
    • メリット: 評価が難しいタスクでも扱うことができる(行動の評価方法を学習するため)。
    • デメリット: どんな行動を学習するかは制御できない(モデルが自ら獲得するため)。
  • 強化学習の基本的な仕組み
    • 強化学習では、与えられる「環境」が一定のルールに従っていることを仮定する。
    • このルールを、 マルコフ決定過程(Markov Decision Process: MDP) という。
    • MDPの構成要素とその関係は、以下のように図式化できる。
    • MDPにおける報酬は、「直前の状態と遷移先」に依存する。
    • この報酬を 即時報酬(Immediate reward) という。
    • 報酬の総和(=即時報酬の合計)は、当然事前には知ることができない。
    • そのため見積りを行うが、見積もった値を 期待報酬(Expected reward) 、また 価値(Value) と呼ぶ。
    • 見積もる際に、将来の即時報酬については割り引いて考える。
    • 割り引くための係数を 割引率(discount factor) と呼ぶ。

mdp.PNG

MDPの構成要素とその関係

Exercises

Day2: 強化学習の解法(1): 環境から計画を立てる

Day2's Goals

  • 行動評価の指標となる「価値」の定義を理解する
  • 状態の「価値」を動的計画法で学習する手法と実装方法を理解する
  • 「戦略」を動的計画法で学習する手法と実装方法を理解する
  • モデルベースの手法とモデルフリーの手法の違いを理解する

Summary

  • 「価値」の定義
    • Day1で定義した「価値」の計算には、将来の時点の即時報酬が必要になる。
    • 将来の即時報酬は、計算する段階では当然わからない。
    • わからない値に関する計算を持ち越しできるように、式を再帰的に定義する。
    • 発生しうる即時報酬の候補はいくつかあり、どれになるかは確率的になる。
    • そのため、報酬の値は期待値(確率x値)で表すようにする(行動確率 x 即時報酬)。
    • 「価値」を再帰的かつ期待値で計算した式を、 Bellman Equation と呼ぶ。
  • 状態の「価値」の学習と、「戦略」の学習
    • Bellman Equation では期待値の計算に戦略(行動確率)を使用する。
    • 期待値(価値)が計算されれば、それに基づき戦略の修正も行われる(得られる価値が高くなるよう修正する)。
    • 価値の計算、戦略の更新、価値の再計算・・・という処理が繰り返されることになる。
    • 動的計画法において、戦略と価値を相互に更新するプロセスを Policy Iteration と呼ぶ。
    • 一方、価値が計算できるなら価値が一番高いところを選べばいい、という素朴な考えもある。
    • この場合、価値=戦略となる。
    • 動的計画法において、価値=戦略とし、価値のみ更新するプロセスを Value Iteration と呼ぶ。
    • 戦略を持つか(Policyベース)、価値=戦略とするか(Valueベース)は、強化学習において重要な観点となる。
  • モデルベースとモデルフリー。
    • 動的計画法では、エージェントを一切動かさずに戦略/価値を学習した。
    • このような芸当が可能なのは、遷移関数と報酬関数が明らかであり、シミュレーションが可能であるため。
    • こうした、環境の情報を元に学習する手法を モデルベース の手法と呼ぶ。
    • なお、遷移関数と報酬関数がわかっていることは少ないため、実際は推定を行うことになる。
    • 一方、実際にエージェントを動かすことで得られた経験を元に学習する方法を モデルフリー の手法と呼ぶ。
    • モデルの情報(遷移関数/報酬関数)が必要ないため、モデル「フリー」と呼ばれる。
    • 環境が高度になるほどモデルの推定が困難になるため、一般的にはモデルフリーが用いられることが多い。
    • しかし、表現力の高いDNNの登場によりこの限りではなくなっている。
    • また、モデルフリーとモデルベースを併用する試みも多く行われている。

Exercises

Value Iteration/Policy Iterationについて実行結果を試せるシミュレーターを用意しています。
以下のスクリプトを実行し、立ち上がったサーバーにアクセスしてみてください(こちらから試せます)。

python DP/run_server.py

http://localhost:8888/

application.PNG

  • Areaで行・列を指定し、Drawのボタンを押すことで指定したサイズの迷路を作成できる。
  • 迷路内のセルを選択した後、Cell Settingのボタンを押すことで迷路のマスの設定を行うことができる。
  • Treasureはプラスの、Dangerはマイナスの報酬のゴール。Blockは、移動できないセルとなる。
  • 迷路の設定ができたら、Simulationにあるボタンを押し計画を立てる。
  • Value Iteration/Policy Iterationどちらかのボタンを押すと、ボタンに応じたアルゴリズムで解いた結果が参照できる。

Day3: 強化学習の解法(2): 経験から計画を立てる

Day3's Goals

  • 経験を活用する際の3つの観点を理解する
    1. 経験の蓄積と活用のバランス
    2. 計画の修正を実績から行うか、予測で行うか
    3. 経験を価値、戦略どちらの更新に利用するか
  • 各観点における対の関係を理解する
  • 各観点を代表する手法の実装方法を身につける

Summary

  • 「経験」とは
    • 「行動する前」に見積もった価値と、「行動した後」判明した実際の価値との差異となる。
    • 行動すればするほど実際の即時報酬が明らかになり、見積もりに依存する分は少なくなる。
    • これは「行動する前」の時点と「行動した後」の時点の差、という時刻間の差とも言える。
    • そのため、これを TD誤差(Temporal Difference error) と呼ぶ。

td.PNG

経験=TD誤差

  • 経験の蓄積と活用のバランス
    • モデルフリーでは遷移関数/報酬関数が不明である。
    • そのため、「経験」の信頼度を上げるには複数回の試行が必要になる。
    • (宝くじを1回買って当選したから、宝くじの当選確率は100%!とはならない)。
    • 行動回数は。通常限られている。
    • そのため、行動回数を「経験の信頼度向上」(見積り精度向上)と「経験を信じた行動」に割り振る必要がある。
    • これを 探索と活用のトレードオフ(Exploration-Exploitation Trade-off) と呼ぶ。
    • (探索=信頼度向上、活用=信じた行動)。
    • Epsilonの確率で探索/活用を切り替える手法を、Epsilon-Greedy法 と呼ぶ。
  • 計画の修正を実績から行うか、予測で行うか
    • 「行動した後」は、最短では1回行動した後、最長ではエピソードが終了した後となる。
    • 前者を TD法(TD(0)) 、後者を Monte Carlo法 と呼ぶ。
    • 「行動した後」を長く取るほど実績に基づいた修正が可能になるが、その分修正のタイミングは遅くなる。
    • 実績/タイミングどちらを取るかはトレードオフとなる。
    • TD(0)とMonte Carlo法の間を取ることももちろん可能である。
    • 「行動した後」を複数ステップ後にする手法を Multi-step learning と呼ぶ。
    • ステップ数の異なる経験を組み合わせる手法を TD(λ)法 と呼ぶ。
  • 経験を価値、戦略どちらの更新に利用するか
    • 経験は、価値/戦略(Valueベース/Policyベース)どちらの更新にも利用可能である。
    • TD法に基づき行動の価値の更新を行う手法を Q-learning と呼ぶ。
    • ("Q"は、行動価値を表す記号としてよく用いられる。これに対し状態の価値は"V"とされることが多い)。
    • TD法に基づき戦略の更新を行う手法を SARSA(State–action–reward–state–action) と呼ぶ。
    • SARSAでは価値を見積る際、先の行動は戦略により決定されることを前提とする。この前提を On-policy と呼ぶ。
    • Valueベースのように、先の行動は「最大の価値が得られる行動」である、とする場合を Off-policy と呼ぶ。
    • (戦略がない=Offのためこう呼ばれる)。
    • Q-learningはOff-policyであり、SARSAはOn-policyである。
    • SARSAでは戦略評価と戦略に同じ"Q"を使用している。
    • これに対し、Policy Iterationのように評価と戦略を切り離すこともできる。
    • 戦略側をActor、評価側をCriticとして切り離した手法を Actor-Critic と呼ぶ。
    • Actor-Criticは、Policyベース(Actor)とValueベース(Critic)の併用とも言える。

修正方法(実績/予測)、修正対象(価値/戦略)、見積り前提(On-policy/Off-policy)の3つの観点で手法をまとめると、以下のようになる。

修正方法 修正対象 見積り前提
予測 実績 価値 戦略
Off-policy On-policy
Q-learning
Monte Carlo
SARSA
Actor Critic
Off-policy Actor Critic
On-policy Monte Carlo
Off-policy Monte Carlo

Exercises

Day4: 強化学習に対するニューラルネットワークの適用

Day4's Goals

  • 関数として、ニューラルネットワークを適用するメリット
  • 価値評価を、パラメーターを持った関数で実装する方法
  • 戦略を、パラメーターを持った関数で実装する方法

Summary

  • 価値評価/戦略の関数化
    • Day3までは、状態における行動の価値をQ[s][a]というテーブルで管理してきた。
    • しかし、このままでは状態数/行動数が多くなった場合に破綻することは目に見えている。
    • テーブルを関数化することが、この組み合わせ爆発に対応するための一つの解法となる。
    • 関数として(ディープ)ニューラルネットワークを使用する強化学習を特に「深層強化学習」と呼ぶ。
  • 関数として、ニューラルネットワークを使用するメリット・デメリット
    • 人間が実際に観測している「状態」に近いデータをエージェントの学習に使用できる。
    • これは、DNNが特徴抽出に優れているためである(画像ならばCNNなど)。
    • ただ、ニューラルネットワークを使うことで学習時間が長くなるなどのデメリットも発生する(詳細はDay5)。
  • 価値評価を、パラメーターを持った関数で実装する
    • 状態を受け取り、行動価値(=Q)を出力する関数(Q-function)を、ニューラルネットワークで実装する。
    • ニューラルネットワークとしてCNNを利用する実装を、Deep Q-Network (DQN) と呼ぶ。
    • DQN以前にもニューラルネットワークを使用した研究はあった。しかし、学習が安定しないという課題があった。
    • DQNは、学習を安定させる3つの工夫を行うことでこの課題を克服している。
    • 3つとは、 Experience ReplyFixed Target Q-Network報酬のClipping である。
    • Rainbowは、DQNに対しさらに6つの工夫を追加した手法となっている。
  • 戦略を、パラメーターを持った関数で実装する
    • 戦略の出力は行動確率であり、これは価値のように事前/事後の差分で評価ができない。
    • (AとBの選択を行う際、選んだAが思っていたのとどれくらい違うかは評価できる(差分評価))。
    • (しかし、Bをとっていたらどうだったのか?というのは時間を巻き戻さないとわからない)。
    • そのため、価値の時のように差分を小さくするのではなく、純粋に戦略によって得られる期待価値を最大化する。
    • 期待値は確率X値で計算できた。
    • 戦略の期待価値は、「状態への遷移確率」X「行動確率」X「行動で得られる価値」で計算できる(J(θ))。
    • この期待価値を、勾配法で最大化する。この手法を 方策勾配法(Policy Gradient) と呼ぶ。
    • 「行動で得られる価値」は、Day3で学んだように予測で見積る/実績から計算など様々なバリエーションがある。
    • 行動の価値から状態の価値をマイナスした、純粋な行動の価値分を Advantage と呼ぶ。
    • Advantageは、行動の価値は実績(Monte Carlo)、状態の価値は予測(TD)からと計算することができる。
    • 状態の価値はCritic、戦略はActorとし、Advantageを使い学習する手法を Advantage Actor Critic (A2C) と呼ぶ。
    • 方策勾配法は「現在の戦略での経験」で更新を行うため、過去の経験を使うExperience Replyは使用できない。
    • 方策勾配法は、勾配の更新方法がとてもデリケートである。
    • そのため、あまり大幅な更新が起きないよう(徐々に)学習させる手法としてTRPO、PPOがある。
  • 価値評価か、戦略か
    • 価値評価には2つデメリットがある。
      1. 価値の値が拮抗している2つの行動があっても、「最大」(少しでも大きい方)しかとらない。
      1. 行動数が増えた場合対応が難しい。
    • 戦略の場合、価値の大きさに応じた確率を割り振る、行動数が増えた(連続の場合)でも対応が可能である。
    • (A2Cでは行動それぞれの確率を出力しており、実質的には価値評価と同じだった。これを克服する手法が2つある)。
      1. 価値評価のようにベストな行動一つを出力する手法(Deterministic=決定的 なPolicy Gradient= DPG)
      1. 行動分布のパラメーター(平均・分散など)を出力する手法。
    • ただ、戦略の学習は価値評価の学習に比べ安定しない傾向がある。
    • 2018年時点では、Policy Gradientの学習が意図した通りに行われているのかについてもまだよくわかっていない。
    • 既存の手法は、以下のように分類を行うことができる。

rl_ways.PNG

強化学習の手法の分類

Exercises

Day5: 強化学習の弱点

Day5's goals

強化学習、特にニューラルネットワークを利用した深層強化学習の弱点について解説する。弱点とは、以下3点である。

  • サンプル効率が悪い
  • 局所最適な行動に陥る、過学習することが多い
  • 再現性が低い

Summary

  • サンプル効率が悪い
    • Rainbowの論文には、Atariのゲームで人間同等のスコアを記録するのにどれぐらいの学習が必要か書かれている。
    • これによれば、Rainbowであっても、約166時間のプレイ時間が必要になる(30fpsの場合)。
  • 局所最適な行動に陥る、過学習することが多い
    • 局所最適: 対戦ゲームの場合、特定の対戦相手にだけ勝てる方法を学習する。
    • 過学習: ゲームで言うところのチートプレイなどを学習する。
    • ・・・といったことが起こる場合がある。
  • 再現性が低い
    • ハイパーパラメーターの設定はもちろん、実行のたびに結果が変わるようなケースがある。
  • 対策
    • 根本的な対策はDay6にて紹介し、Day5ではこの弱点を前提とした対策を紹介する。
    • 対策の基本は、「1回の学習結果を無駄にしない」となる。
    • 「再現性が低い」ため複数回の実験が必要になる。
    • しかし、「サンプル効率が悪い」ため学習には多くの時間が必要となる。
    • そのため、一回の実験は長時間X複数回の実行からなる。これには当然時間がかかる。
    • 時間のかかる実験がつまらないミスでやり直しになる事態を、可能な限り避ける必要がある。
    • また、一回の実験からは可能な限り情報を取りたい。
    • これを実現するため、Day4以降の実装では「モジュール分割」と「ログ取得」の2つを行っている。

train_architecture.PNG

強化学習の実装フレームワーク

Day6: 強化学習の弱点を克服するための手法

Day6's goals

Day6では、Day5で紹介した弱点に対する根本的な対処方法(アルゴリズム的な改良)を解説する。

  • 「サンプル効率が悪い」ことへの対処法
  • 「再現性が低い」ことへの対処法
  • 「局所最適な行動に陥る、過学習することが多い」ことへの対処法

Summary

  • 「サンプル効率が悪い」ことへの対処法
    • 強化学習におけるサンプル効率の改善については、様々な手法が提案されている(下表参照)。
    • 本書では、そのうちの一つである「環境認識の改善」について扱う。
    • 深層強化学習は、画面など(人間が受け取るような)生に近いデータを扱う。
    • このため、モデルは「入力(画面)からの特徴抽出」と「行動の仕方」の2つを同時に学習する必要がある。
    • これが、学習効率を下げている原因と考えることができる。
    • 「環境認識の改善」では、環境からの情報取得のサポートを行う。これには2つの方法がある。
    • モデルベースとの併用: 環境のシミュレーター(モデル)を作り、抽象化された環境での学習を可能にする。
    • 表現学習: 環境から得られる状態を、より認識しやすい表現に加工する。
    • 本書では、モデルベースの併用として Dyna 、表現学習として World Models の紹介を行う。

sample_improve.PNG

サンプル効率を改善する手法の一覧

  • 「再現性が低い」ことへの対処法
    • 再現性の低さを招いている要因の一つとして、「学習が安定しない」という問題がある。
    • この点について、近年勾配法とは異なる最適化アルゴリズムが注目されている。
    • それが 進化戦略 である。
    • 勾配法は「初期状態から徐々に改善していく」というアプローチをとる。
    • 一方、進化戦略は「多くの候補から絞り込む」というアプローチをとる。
  • 「局所最適な行動に陥る、過学習することが多い」ことへの対処法
    • 解決策として、「人がある程度誘導してやる」という単純な方法がある。これには、2つの方法がある。
    • 模倣学習 : 人がお手本を示し、それに沿うよう行動を学習させる。
    • 逆強化学習 : 示されたお手本から報酬を逆算し、それを基に行動を学習させる。
    • 模倣学習は教師あり学習と似ているが、すべてのケースにおいてお手本を用意することは難しい。
    • (事故を回避するデモ、など)。
    • そのため、お手本をベースにしつつもお手本以外のケースにも対応できるようになる必要がある。
    • 逆強化学習は、以下のような学習プロセスを経る(下図参照)。
    • 通常の強化学習では、3のプロセスだけで済む(Train Agent under Reward Function)。
    • しかし、逆強化学習はそこから報酬関数を更新、更新された報酬で再度学習・・・と繰り返す。
    • そのため推定には時間がかかる。ただ、これを軽減する手法はいくつか提案されている。

irl.png

逆強化学習のプロセス

Exercises

Day7: 強化学習の活用領域

Day7's goals

  • 強化学習を活用する2つのパターンを理解する
  • 強化学習を活用する2つのパターンにおける研究と事例を知る
  • 強化学習を活用する2つのパターンを実現するツール/サービスを知る

Summary

  • 強化学習を活用する2つのパターン
    • 強化学習の活用は、「行動の最適化」と「学習の最適化」に大別できる(下図参照)。
    • 行動の最適化は、強化学習により獲得された行動をそのまま活用する。
    • 学習の最適化は、強化学習の「報酬の最大化」という学習プロセスを活用する。
    • この2つの分類に添い、研究/事例/ツール/サービスを紹介していく。

rl_application.PNG

強化学習の活用パターン

Support Content

プログラミングが初めて、という方のために参考になるコンテンツを用意しています。最近はプログラムを学ぶ書籍などは充実しているため、もちろんそれらで補完して頂いて構いません。

python_exercises

More Repositories

1

awesome-text-summarization

The guide to tackle with the Text Summarization
1,287
star
2

awesome-financial-nlp

Researches for Natural Language Processing for Financial Domain
402
star
3

tensorflow_qrnn

QRNN implementation for TensorFlow
Python
238
star
4

mlnote-note

機械学習帳を学ぶノート
Jupyter Notebook
217
star
5

graph-convolution-nlp

Graph Convolution Network for NLP
Jupyter Notebook
213
star
6

fastTextJapaneseTutorial

Tutorial to train fastText with Japanese corpus
Python
203
star
7

kemono_puyo

🐱 Take kemono pictures and lines up 3, then tanoshii
JavaScript
94
star
8

magenta_session

🎹 Music Session with Google Magenta
JavaScript
81
star
9

techcircle_openai_handson

Tech-Circle OpenAI Handson Repository
Python
64
star
10

python_exercises

short exercises for Python
Python
55
star
11

gensim_notebook

explain how to develop the topic model and how to evaluate it.
Python
39
star
12

machine_learning_in_application

Practical Machine Learning Implementation In the Application
Python
38
star
13

tying-wv-and-wc

Implementation for "Tying Word Vectors and Word Classifiers: A Loss Framework for Language Modeling"
Python
38
star
14

pyfbi

pyFBI enables a necessary and sufficient profiling and visualization
JavaScript
31
star
15

baby_steps_of_machine_learning

basic tutorial for machine learning implementation
Jupyter Notebook
29
star
16

pykintone

Python library to access kintone
Python
27
star
17

mlimages

prepare the image data set for machine learning
Python
24
star
18

datascience-template

Data science project template
Jupyter Notebook
20
star
19

acl-anthology

Script to get ACL Anthology
Python
16
star
20

SAPExtractorDotNET

The data extractor for SAP Query , Table
Visual Basic
16
star
21

sms-tools-workspace

sms-tools workspace
Python
14
star
22

kintoneDotNET

サイボウズ社のkintoneを.NET Framework上で扱うためのライブラリです (※非公認)
Visual Basic
14
star
23

cv_tutorial

OpenCV Tutorial
Jupyter Notebook
14
star
24

yans-2019-annotation-hackathon

Yans2019 Annotation hackathon
Python
12
star
25

KanaMaker

make Kana(Katakana,Hiragana,Roman) text
JavaScript
11
star
26

tech_book_2

技術書典2で出店する書籍の紹介ページです
11
star
27

rnn_demo

Recurrent Neural Network Demo by PyBrain
Python
10
star
28

pyoxford

Python Client for Microsoft Project Oxford
Python
10
star
29

chainer_pong

learn pong by chainer
Python
9
star
30

kintoneJavaScripts

kintoneのJavaScriptカスタマイズテンプレート集
JavaScript
9
star
31

karura

Easy machine learning platform on the kintone
Python
9
star
32

scikit-learn-notebook

japanese scikit-learn tutorial
Jupyter Notebook
8
star
33

number_recognizer

handwritten number recognizer by scikit-learn
Python
8
star
34

localstack-lab

Invoke localstack on SageMaker Studio Lab
Jupyter Notebook
7
star
35

airflow-ml-pipeline

The repository to learn Machine Learning with Airflow
Python
6
star
36

git-sparse

git command extention for sparse-checkout
6
star
37

esg-evaluation-by-nlp

Automate ESG evaluation by nlp
Jupyter Notebook
6
star
38

JavaEE7App

simple JavaEE7 web application
Java
5
star
39

get_intangible_assets

Get Intangible Assets from XBRL
Jupyter Notebook
5
star
40

DataBaseExecutors

Simple And Functional Database Access Library for C# / VB.NET
Visual Basic
5
star
41

DialogueBreakdownDetection2016

2016年度の対話破綻検出チャレンジの提出モデル
Python
5
star
42

python_doc_sample

sample python project that documented by Sphinx
Python
4
star
43

python_training

python研修用リポジトリ
Python
4
star
44

allennlp-sagemaker-tuning

Hyper Parameter Tuning for AllenNLP Model by Amazon SageMaker
Jupyter Notebook
4
star
45

xbrl_read_tutorial

How to read XBRL file
Jupyter Notebook
4
star
46

robinchorus

Robin Chorus is group chat service
Python
3
star
47

cv_tutorial_feature

Tutorial to detect and describe the feature of image by OpenCV
Jupyter Notebook
3
star
48

tensorflow-windows-build

tensorflow wheel file builded on Windows
3
star
49

cartpole-q-learning

Solve CartPole environment on OpenAI Gym by simple q-learning algorithm
Python
3
star
50

simple_decimal

This is javascript library for decimal type. Released under MIT licence
JavaScript
2
star
51

TravelPenguinBot

Travel Penguin Bot
Python
2
star
52

pollen_prediction_by_azure

predict pollen by Azure Machine Learning
Python
2
star
53

sayuri-server

Conference Consultant Sayuri
Python
2
star
54

YourHybridcast

Hybridcast on Youtube
JavaScript
2
star
55

decolo

Decorate Face and show message for your party guests.
JavaScript
2
star
56

tensorflow-arithmetic

tensorflow example by using arithmetic calculation
2
star
57

jira-wiki-gadget

Atlassian JIRA's gadget for Wiki
CSS
2
star
58

enigma_abroad

let's travel by choosing the photo
Python
2
star
59

Gears

ASP.NET WebForm用 開発フレームワーク
Visual Basic
2
star
60

introduction_to_music_production

Introduction to Music Production on Coursera
1
star
61

enigma_travel

let's travel by one click
Python
1
star
62

NodeJournal

reads the site and summarizes it like newspaper
JavaScript
1
star
63

rockin_on_data_science

Datascience for Rockin'on!
Jupyter Notebook
1
star
64

developers-stop-watch

stop watch for developer
CSS
1
star
65

yans-2018-ttk

YANS 2018 TTKチームリポジトリ
Python
1
star
66

SignalRonMVC4

SignalR sample on ASP.NET MVC4
JavaScript
1
star
67

jina-demo

Demonstration of JINA, cross-modal and multi-modal data store
Jupyter Notebook
1
star
68

elastic_search_study

Elastic Search勉強用リポジトリ
1
star
69

go_exercises

short exercises for Go
Go
1
star
70

chika

Japanese Shiritori Master Chika
JavaScript
1
star
71

SlickGridNumericEditor

the numeric (decimal) editor for SlickGrid
JavaScript
1
star
72

heroku-buildpack-jubatus

heroku buildpack to run the jubatus
Shell
1
star
73

hacker-touches-the-walls

Tell your fortune by your key touches!
JavaScript
1
star
74

pyzenin

Template project to follow Zen of Python
Python
1
star
75

studiolab-cdk

Learn the cdk by SageMaker Studio Lab
Jupyter Notebook
1
star
76

learn-aws-sap-with-cdk

Learn AWS Solution Architect Professional (SAP) with CDK
TypeScript
1
star
77

music_hack_day_onpasha

music_hack_day_onpasha
Python
1
star