船木俊介「ディープビジネスフロンティア」

船木俊介 (スーパーソフトウエア東京オフィス代表&キッズラインCTO)

スーパーソフトウエア 東京オフィスは、事業拡大に伴い2018/3/5にオフィスを移転しました。移転先も同じ恵比寿で駅から徒歩3分、以前のオフィスより倍くらいの広さになりました。

隣にはスターバックスやフードコード「EBIS FOOD HALL」、シュラスコの「RIO GRANDE GRILL 恵比寿」などおしゃれなお店もたくさんあります。超昭和感あふれていてTVや映画の撮影にも使われる喫茶銀座もすぐ近くです。

オフィスデザインもちょっとこだわりたい、ということで社員と内装考えて、家具を買いに行って組み立てたり、全体的にモノトーン基調にしたりと、自分たちで創るのはベンチャー感あって楽しいですね。ただ、港北と恵比寿を何往復もして重い家具を運ぶのはさすがに大変でした。IKEAが広すぎる。

そういえばトレンダーズ創業時やキッズライン、スーパーソフトウエアの前オフィスも、机をトントンと組み立てるところから始めたなと思い出して、こうやってオフィスを創る経験というのは意外に思い出に残るものでいいものです。

AI(人工知能)や開発エンジニアのアサインなどのご相談でお越しいただくお客様も多いので恵比寿駅になるべく近い物件を探していたのですが、恵比寿は新宿・品川など他の地域に比べても競争率が異様に高いので物件探しに時間がかかりましたが、最終的にベストな物件が見つかってよかった。

お近くにお越しの方はぜひお立ち寄りください。

また、スーパーソフトウエアではこれからエンジニアになりたいという初級エンジニアも募集していて、社員もどんどん増えているので、興味のある方はとりあえず応募してみてください。

IMGP6504_2
IMGP6475_2
IMGP6491_2
IMGP6496_2
IMGP6521_2
IMGP6472_2
IMGP6523_2_MG_6539_2
IMG_0640_2

〒150-0022
東京都渋谷区恵比寿南1-2-11
フォーシーズン恵比寿ビル 4F
TEL: 03-6721-7105
FAX: 03-6721-7106




mynavi

AI(人工知能)やアプリ、動画配信、業務システム、システムコンサルなど仕事の依頼も毎日数え切れないくらいたくさんあり、メンバーも日々増えていますが、まだまだ絶賛急拡大中なのでマイナビでエンジニア募集してます。

株式会社スーパーソフトウエア 【人気アプリ「漫画カメラ」は全世界740万ダウンロード!】

「テクノロジーで未来を創る」をビジョンに、ものを創れるエンジニアを増やすこと、日本から優れたソフトウェアプロダクトを生み出すことを使命にしている会社です。日本のITエンジニアは90万人程度と言われており、これは就労者6500万人のわずか1.3%ほどしかいません。そのうち何かしらのコードが書けるエンジニアは30〜40万人くらいいるとしても、自分でゼロからものを創り出せるレベル、つまりアイデアやUX、コード実装、リリースができるまでのエンジニアは日本ではかなり少ないのが実情で、数万人程度でしょう。もちろん実数はわからないですが5%だとしても1万5000人程度、10%としても3万人程度。コードが多少書けたとしても、Rubyを生み出したMatz(まつもとゆきひろ)氏がいう「人間系」領域に明るいエンジニアは、実際この業界少ない。業界が悪いとか、構造上の問題は当然ありますが、エンジニア個々人では人間系への興味を含めて技術力を伸ばす機会を増やすことが重要なので、未経験でも学習できる環境、技術を伸ばせる数々のプロジェクト、ともに成長する仲間、AIやクラウドの最新技術など、エンジニアにとってテクノロジーに向き合って成長できる環境を用意しています。

スーパーソフトウエア


メンバーのチームワークもよくて、みんなでボーリングしたり IMG_4921


飲んだり IMG_5603


ちゃんと仕事したり _MG_4209


マイナビさんで募集中です!ぜひご応募ください。 ssw-mn

久しぶりにAWSのGPUインスタンスを見ていてると、p2インスタンスが利用可能になっていました。

p2のGPUはTesla K80が載っているのでg2系のK10よりも2.5倍ほど速い。FLOPSは2倍、GPUメモリは3倍、などおおむね倍以上のスペックになっていて、値段としては、g2.2xlargeが$0.65/hでp2.xlargeが$0.9/hなので、1.4倍ほど。ディープラーニングの学習が12時間かかったとしても1200円ちょっとで、コストパフォーマンスとしても割といいのではないでしょうか。
tesla-k80
このp2インスタンス、AmazonLinuxならCaffeなどが入っているらしいですが、ディープラーニングではubuntuばかり使っているので、ubuntuでのTensorFlowインストールを行います。以前に比べて妙な手間が減って割と簡単になった感があります。


Ubuntu初期設定

まずインスタンスを立ち上げます。Ubuntu Server 16.04 LTSを使用して、ディープラーニングではデータセットが大きくなるのでSSDは50GB以上など大きめにとっておきます。 awswiz
インスタンスが起動したら、ツール類をインストールしておきます。今回はPython2.7で。
$ sudo apt-get update
$ sudo apt-get upgrade -y
$ sudo apt-get install -y build-essential python-pip python-dev git python-numpy swig python-dev default-jdk zip zlib1g-dev ipython

CUDA/cuDNNインストール

デフォルトでnouveauのグラフィックドライバが有効になっているので、NVIDIAのCUDAなどドライバをインストールする際にエラーがでないように無効化しておきます。
$ echo -e "blacklist nouveau\nblacklist lbm-nouveau\noptions nouveau modeset=0\nalias nouveau off\nalias lbm-nouveau off\n" | sudo tee /etc/modprobe.d/blacklist-nouveau.conf
$ echo options nouveau modeset=0 | sudo tee -a /etc/modprobe.d/nouveau-kms.conf
$ sudo update-initramfs -u
$ sudo reboot

$ sudo apt-get install -y linux-image-extra-virtual
$ sudo reboot
NVIDIAのウェブサイトからドライバをダウンロードしておきます。
cuda
cuDNN
cuDNNはNVIDIAへのログインが必要です。CUDA8.0と、cuDNN5.1 for CUDA 8.0をダウンロードしたら、SCPなどでubuntu側へアップロードしておきます。

CUDAインストール

sudo apt-get install -y linux-source linux-headers-`uname -r`
sudo dpkg -i cuda-repo-ubuntu1604_8.0.61-1_amd64.deb
sudo apt-get update
sudo apt-get install cuda

cuDNNインストール

tar xvzf cudnn-8.0-linux-x64-v5.1.tgz
sudo cp -P cuda/include/cudnn.h /usr/local/cuda/include
sudo cp -P cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
sudo apt-get install libcupti-dev

.profile更新

export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda/lib64:/usr/local/cuda/extras/CUPTI/lib64"
export CUDA_HOME=/usr/local/cuda
$ source ~/.profile
CUDAドライバのインストールは完了です。
$ nvidia-smi
で、
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 375.66                 Driver Version: 375.66                    |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  Tesla K80           Off  | 0000:00:1E.0     Off |                    0 |
| N/A   37C    P0    76W / 149W |      0MiB / 11439MiB |     93%      Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID  Type  Process name                               Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+
が出てくればOKです。


TensorFlowインストール

使いたいライブラリがr0.12バージョン指定だったのでTensorFlow r0.12をインストールします。必要に応じてバージョンは変えてください。
$ export TF_BINARY_URL=https://storage.googleapis.com/tensorflow/linux/gpu/tensorflow_gpu-0.12.1-cp27-none-linux_x86_64.whl
$ sudo pip install --upgrade $TF_BINARY_URL
動作確認をしておきます。 TensorFlowの動作確認。
$ python
...
>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow!')
>>> sess = tf.Session()
>>> print(sess.run(hello))
Hello, TensorFlow!
>>> a = tf.constant(10)
>>> b = tf.constant(32)
>>> print(sess.run(a + b))
42
>>>
CUDAが上手く動いているか確認。
$ python -c 'import os; import inspect; import tensorflow; print(os.path.dirname(inspect.getfile(tensorflow)))'

I tensorflow/stream_executor/dso_loader.cc:128] successfully opened CUDA library libcublas.so locally
I tensorflow/stream_executor/dso_loader.cc:128] successfully opened CUDA library libcudnn.so locally
I tensorflow/stream_executor/dso_loader.cc:128] successfully opened CUDA library libcufft.so locally
I tensorflow/stream_executor/dso_loader.cc:128] successfully opened CUDA library libcuda.so.1 locally
I tensorflow/stream_executor/dso_loader.cc:128] successfully opened CUDA library libcurand.so locally
/usr/local/lib/python2.7/dist-packages/tensorflow


ここまでできればAMIなどを作成してインスタンスを停止、使いたいときに起動という運用にしておけば、いつでも低コストで人工知能の開発ができますね。

↑このページのトップヘ