サンフランシスコで英語の学習機会を増やすためにやった3つの事
SF滞在中の目標の中で”英語を上達させる”と、高らかに宣言して早一ヶ月半。これまで私がサンフランシスコで英語の学習機会を増やすためにやったことを3つ紹介したいと思います。
Meetupへの参加
まずはMeetupの積極的参加ですね。以前ブログ内でも紹介しましたが、サンフランシスコ内では主に言語交換を目的とした英語に関するMeetupがかなりたくさんあります。
日英の言語交換や、単純に英語だけ会話しましょう的なものから、ただの飲み会まで様々です。
そこに積極的に参加することで、英語のアウトプットとインプットの量を増やすことができます。
また、英語の勉強法の情報交換なんかもできるので、英語を上達させる意味では非常にメリットが大きいと思っています。
同じ英語を勉強している人間同士ということで仲間意識も生まれやすく、友達を見つけやすいのも良い点の1つかもしれません。
私観点で、サンフランシスコ内のMeetupで比較的馴染みやすいもののリンクを貼り付けておくので、参考にしてみてください。
Nihongo Moriagari: Japanese Language Meetup (San Francisco, CA) | Meetup
Free English Conversation For International Students (San Francisco, CA) | Meetup
ILSC English Experience (San Francisco, CA) | Meetup
デーティングアプリの利用
TinderやHappnなどを利用して、あわよくば外国人の彼女を見つけるのもひとつの手段です。
「その言語を学ぶのに一番の近道は、その言語を喋る異性と恋人関係になること。」とはよく言ったもので、まがいもない事実だと個人的には思っています。
恋人関係になるためのひとつのアプローチがデーティングアプリの利用になると思いますが、まあ結論から言うと、自分の場合はほとんど効果なしです 笑。
マッチはしてもあまり会話が盛り上がらないので、なんの勉強にもなりません。私がデーティングアプリで効率的に勉強するには、別の何かの勉強が必要と思われます。。
色々な意味で自信のある方はぜひ試して成果を教えてほしいです(切実)
アプリもいくつかあるので自分の趣向に合わせて、選んでみてください。(以下参考)
The 8 Best Dating Apps for 2017 | Digital Trends
カウチサーフィンの活用
カウチサーフィンがどれほどの市民権を得ているか謎ですが、簡単に説明すると、カウチサーファーとは、人の家にあるカウチ(ソファ)を寝床にしちゃう人たちのことで、カウチサーファーと寝床となるカウチを提供するホストをマッチングさせてくれるウェブサービスが以下のサービス。 www.couchsurfing.com
で、私が実践しているのは、サーファーをホストする側。幸い今住んでいるアパートメントがまあまあな広さで、素敵なカウチもついているので、サンフランシスコに来てからホストをしてみています。
知らない人を家に入れるのは多少は抵抗はありますが、やってみるとなかなか楽しくて、すでに5人のカウチサーファーをホストしてきました。
英語の学習機会に対する貢献は絶大で、一緒にいる時間が長いこともあり、否応にも話さなくてはいけないので、英語の使用頻度は劇的に増えます。
また、生活する上で必要な生の英語を使う機会が増えるのも、良い点と言えると思います。
今のところ変な事も起きていませんし、ややストレスを感じることもありますが、意外となんとかなるものですし、英語を使えること以上に色々な人に会えることが楽しいです。
ということで、私はカウチサーフィンのホストを1番オススメします。(結構人を選びそうですが、、)
最後に
以上が私が英語の学習機会を増やすためにやっている3つのことになります。
海外に来てみたけど、意外と英語を使う機会がない。というような方はぜひ上記のアプローチを試してみてください。
もちろん、これ以外にも発音や語彙を増やすための自宅学習なども併せてやらないと、思うような効果はでてこないと思いますので、上記の取り組みと併せて自宅学習も行うようにしましょう。
はじめてのKerasと深層学習
先日、MeetupでKerasと深層学習の勉強をしてきました。 参加したのはこのMeetup: www.meetup.com
内容
Meetupとして以下の3つのTutorialを用意していて、そのうちの1つのDeep learningに関するTutorialを受けてきました。
- Working with Binary Data
- Sqlite3 and PEP249: A Beginner's Course
- Intro to Deep Learning with Keras
講義用のスライドとGithubのrepositoryもシェアされているので、貼り付けておきます。
www.slideshare.net
内容は、Kerasを使ってMNISTの手書き数字を認識する深層学習のモデルを作るというもの。 後で知りましたが、これはKerasに含まれるサンプルコードのひとつのようです。。 サンプルコードをExercise形式で、順に説明を含めながら読み解いていく形の講義でした。
コードと説明(インライン)
説明というほどのものでもないのですが、自分の理解のためのメモ書きを含めたコードが以下になります。
# 必要moduleのimport from keras.datasets import mnist from keras.models import Sequential from keras.layers import Dense, Dropout from keras.optimizers import RMSprop from keras.utils import to_categorical
# the data, shuffled and split between train and test sets (X_train, y_train), (X_test, y_test) = mnist.load_data('/tmp/mnist.npz') # 60000枚の白黒画像 (28pixel x 28pixel) print("X_train shape:", X_train.shape) # 10000枚の白黒画像 (28pixel x 28pixel) print("X_test shape:", X_test.shape) # 1画素 unsigned int 8 bit (256階調) print("Data type:", X_train.dtype)
# Exercise 1: # Reshape your data so that each image becomes a long vector # Your code here # uint8の2次元配列を1次元に展開(784次元のベクトル) X_train = X_train.reshape(60000, 784) X_test = X_test.reshape(10000, 784)
# Exercise 2: # change the type of the input vectors to be 'float32' # and rescale them so that the values are between 0 and 1 # Your code here: # uint8をfloat32に変換 X_train = X_train.astype('float32') X_test = X_test.astype('float32') # 0~255の階調データを1, 0に2値化(binary) X_train /= 255 X_test /= 255
# Exercise 3: # convert class vectors to binary class matrices # using the keras.utils.to_categorical function # Your code here: # to_categorical(y, nb_classes=None): 0~(nb_classes-1)までを持つクラスベクトルyをバイナリのクラス行列に変換 # 0~9をもつクラスベクトルy_trainをバイナリのクラス行列に変換 # ex: 5 -> 1_0000, 8 -> 1000_0000 y_train = to_categorical(y_train, 10) y_test = to_categorical(y_test, 10)
# Exercise 4: # Define a fully connected model using the Sequential API # https://keras.io/getting-started/sequential-model-guide/ # Choose your architecture as you please # Your code here: # Sequentialは層の線形スタック model = Sequential() # addで層を追加できる。Denseは全結合ニューラルネットワークレイヤー # ReLUを活性化関数にinput 784次元ベクトルにを512次元ベクトルに model.add(Dense(512, activation='relu', input_shape=(784,))) # Dropout 20%の入力を0として扱い過学習を防止(汎化促進) model.add(Dropout(0.2)) # ReLUを活性化関数として層を追加 model.add(Dense(512, activation='relu')) # Dropout 20%の入力を0として扱い過学習を防止(汎化促進) model.add(Dropout(0.2)) # softmaxを出力層の活性化関数にすることで # ニューラルネットワークの出力があたかもあるクラスに属する確率を表しているとして学習させることができる model.add(Dense(10, activation='softmax')) model.summary()
# Exercise 5: # Compile your model using an optimizer of your choice # make sure to display the accuracy metric # https://keras.io/optimizers/ # Your code here: # 誤差関数(損失関数)としてクロスエントロピー関数を設定 # 最適化(モデルの予測値と実際の値との誤差から、パラメータ(重み)を更新すること)にRMSpropを使う。 model.compile(loss='categorical_crossentropy', optimizer=RMSprop(), metrics=['accuracy'])
# Exercise 6: # Fit the model on the training data. Use 30% of the # data as validation. Experiment with different batch sizes # and number of epochs. Save the history of training and print it. # Your code here: # X_train: 入力となるnumpy配列、y_train: ラベルとなるnumpy配列 # batch_size: 設定したサンプル数ごとに勾配の更新 # epochs: モデルを学習するエポック数 # verbose: 0 とすると標準出力にログを出力しません. 1 の場合はログをプログレスバーで標準出力 # validation_split: float (0. < x < 1) 型で, 検証のデータとして使うデータの割合 history = model.fit(X_train, y_train, batch_size=1024, epochs=10, verbose=1, validation_split=0.3) print(history.history)
# Exercise 7: # Calculate the score on the test data using `model.evaluate` # Your code here: # バリデーションデータによる評価とloss/accuracyの確認 score = model.evaluate(X_test, y_test, verbose=0) print('Test loss:', score[0]) print('Test accuracy:', score[1])
所感
Kerasを使ってみての感想は、複雑なモデルを簡単に作れちゃうんだな。という印象。(深層学習的に複雑なモデル、という意味ではなく)
ただ深層学習の素人だったので、1行1行何をやっているのかを理解するが非常に大変でした。専門用語も知らないものが多い上に英語だったので、残念ながら講義にはついていけなかったのが実際です。
家に戻った後の復習として、以下のサイトとKerasのDocumentを参考に、なんとなく理解が追いついた感じです。
何はともあれ、新しいものに触れるいい機会だったので、引き続き深層学習の勉強に取り組みたいと思います。
高卒でもわかる機械学習 (0) 前置き – 頭の中に思い浮かべた時には
おまけ
同じMeetup内で講義された資料もせっかくなので貼り付けておきます。 自分も後で読んでみようと思います。
https://bradfieldcs.com/sfpython/
[Python] SF Python Project Night 4/19/2017: Working with Binary Data - Pastebin.com
pythonの配布可能なpackageの作り方(setuptoolsを使ってhelloコマンドを作ろう)
珍しく技術ネタです。
今日はpythonでsetuptoolsを用いて、配布可能なpackageを作りたいと思います。
やりたいこと
- ”Hello, world!”と標準出力に表示するhelloというコマンドを作る。
- 上記を、setuptoolsを用いてPythonの配布可能なpackageで実現する。
構成
root/ ├ hello/ │ ├ __init__.py │ └ hello.py └ setup.py
コード
説明
説明するほどでもないですが、setup.pyの内容について少し付け加えます。
packagesについては、hello.pyのあるpackageであるhelloのみをpackageとして登録しています。
複雑になっていく場合はsetuptoolsのfind_packages()を使ったほうが楽に済ませられます。(参照:Building and Distributing Packages with Setuptools — setuptools 35.0.0 documentation)
entry_pointsについては、command名helloをhello package内にあるhello.pyのhello functionと関連付けることで?、commandとしてhelloが実行可能になります。
動かしてみる
packageのbuild&install
> python3 setup.py install > hello Hello, world!
packageのbuildのみ
> python3 setup.py sdist > ls dist hello-0.0.1.tar.gz
最後に
以上で、helloコマンドが実現可能になりました。
次回はもうpypiにpackageを登録するところをやってみたいと思います。