ページ

2018年5月13日日曜日

【本】科学的に正しい英語勉強法


【タイトル】 科学的に正しい英語勉強法
【著者】 メンタリストDaiGo   (著)
【出版社】 ディーエイチシー (2018/3/12)
【発売日】 2018/3/12
【価格】1,404円
【目次】
第1部 

話せないのは英語力の問題ではない

(日本人が英語を話せない英語力以前の理由;
 英語なしで「会話」するには?)

第2部 

常識を捨てれば英語は身につく

(日本人の英語学習の勘違い;
 学習法を変えれば劇的に効率が上がる)

第3部 

英語学習を加速するモチベーションの高め方

(学習のハードルを下げるスマホ活用法;
 ビッグファイブ分析による性格別・学習戦略;
 すぐに試せる英語学習ツール)


https://www.amazon.co.jp/%E7%A7%91%E5%AD%A6%E7%9A%84%E3%81%AB%E6%AD%A3%E3%81%97%E3%81%84%E8%8B%B1%E8%AA%9E%E5%8B%89%E5%BC%B7%E6%B3%95-%E3%83%A1%E3%83%B3%E3%82%BF%E3%83%AA%E3%82%B9%E3%83%88DaiGo/dp/4887246005/ref=pd_rhf_se_s_bmx_p_1_1?_encoding=UTF8&pd_rd_i=4887246005&pd_rd_r=TMGFETFJ4C8QJSYNCHBZ&pd_rd_w=A6h8Y&pd_rd_wg=xP2S6&pf_rd_i=desktop-rhf&pf_rd_m=AN1VRQENFRJN5&pf_rd_p=832785317097751492&pf_rd_r=TMGFETFJ4C8QJSYNCHBZ&pf_rd_s=desktop-rhf&pf_rd_t=40701&psc=1&refRID=TMGFETFJ4C8QJSYNCHBZ

【携帯】ドコモ学割

https://www.nttdocomo.co.jp/charge/promotion/gakuwari2018/index.html?&utm_source=yahoo_CRP-gakuwari2018&utm_medium=cpc&utm_campaign=yahoo_CRP-gakuwari2018_yahoocpc_gakuwari2018_gakuwari-td4_1712_0710_prm

【英語】様態のas

Just as s1 v1, S2 V2.

Much as s1 v1 , S2 V2

As s1 v1 , so S2 V2

【家】セキスイハイム

http://www.sekisuiheim.com/

2018年5月12日土曜日

【英語】eHOTCAKE

http://ehotcake.com/

【計算機】フィルタープログラムのテンプレート

for j=1 to y_size
 
  for i=1 to x_size
  
    g(i,j)=filter(   f(i,j) )
 
   next

next

2018年5月11日金曜日

【計算機】VB多次元配列

VB多次元配列
 
例)
    v(1, 1) = 1
    v(2, 1) = 2
    v(3, 1) = 3
    v(4, 1) = 4
    v(5, 1) = 5

【仕事】OARR

Outcome   目標成果
Agenda     討議項目
Role     役割分担
Rule     会議規則


【心理】NOW OR NEVER

仕事の日数は楽観的に見積もりやすい。

2018年5月7日月曜日

【設計】公差計算

・ばらつきの積み上げ

分散の加法性

√(公差A)^2 + (公差B)^2 + ・・・)

・公差寄与度

公差寄与度=(部品の公差幅)/(公差解析結果の幅)

【お話】好きで好きで

好きで好きで一緒になったなら、

もっと お互いを信じなきゃね。

【買い物】靴

Dr.ASSY
http://www.dr-assy.com/

PS.
ASBEEの靴底が、速攻 剥がれた。
ゴムとゴムの接着剤選定が間違っているのでは。
http://www.asbee.jp/
https://gomu.jp/feature_contents/bond

【英語】強制倒置

・否定語

 not , never

・準否定語

little,  hardly,scarcely,  rarely,seldom,  only

・文頭、前置詞+α

【設計】正しい結論を導くため

・感情は客観性を曇らせる

・他人の意見に耳を傾けても、惑わされない

・証拠や結果と一致しなければ、価値がない

【買い物】イオン志都呂

山わけGO!GO!スクラッチ

2018年5月3日~5月13日
1等5,000円
2等500円
3等50円

当たったら、サービスカウンター(直営)へもっていこう。
直営サービスカウンターにて、イオン商品券と交換してくれます。

(仕事終わってから、夜 交換しに行こうかな…)

http://hamamatsushitoro-aeonmall.com/

2018年5月3日木曜日

【計算機】アセンブリ言語 MOV命令

MOV命令

転送命令でメモリーレジスタ間やレジスタ同士間でのデータ転送を行う。

転送データもとには、即値も使用可能。

MOV EAX , 1

【画像処理】線抽出

・輪郭強調処理を行う
・閾値以上の強さを持つ点を抽出する。
・点を連結して線を得る。

x cosΘ + y sinΘ = ρ

【英語】同格のthat

前の名詞を説明する

the 名詞 that S + V + O

【本】リーダーシップの名著を読む (日経文庫)

【タイトル】 リーダーシップの名著を読む (日経文庫)
【著者】 日本経済新聞社 (編集)
【出版社】 日本経済新聞出版社
【発売日】 2015/5/16
【価格】1,080円
【目次】
1『第2版 リーダーシップ論』ジョン・コッター
2『人を動かす』デール・カーネギー
3『自助論』サミュエル・スマイルズ
4『7つの習慣』スティーブン・コヴィー
5『EQ こころの知能指数』ダニエル・ゴールマン
6『リーダーシップ アメリカ海軍士官候補生読本』アメリカ海軍協会
7『組織文化とリーダーシップ』エドガー・シャイン
8『エクセレント・カンパニー』トム・ピーターズ他
9『なぜ、わかっていても実行できないのか』ジェフリー・フェファー他
10『チーズはどこへ消えた?』スペンサー・ジョンソン
11『マネー・ボール』マイケル・ルイス

https://www.nikkeibook.com/book/78662

【本】マネジメントの名著を読む (日経文庫)

【タイトル】 マネジメントの名著を読む (日経文庫)
【著者】 日本経済新聞社 (編集)
【出版社】 日本経済新聞出版社 (2015/1/16)
【発売日】 2015/1/16
【価格】1,080円
【目次】
1『戦略サファリ』ヘンリー・ミンツバーグ他
2『競争の戦略』マイケル・ポーター
3『コア・コンピタンス経営』ゲイリー・ハメル他
4『キャズム』ジェフリー・ムーア
5『ブルー・オーシャン戦略』W・チャン・キム他
6『イノベーションのジレンマ』クレイトン・クリステンセン
7『マネジメント』ピーター・ドラッカー
8『ビジョナリー・カンパニー』ジェームズ・コリンズ他
9『最強組織の法則』ピーター・センゲ
10『プロフェッショナルマネジャー』ハロルド・ジェニーン他
11『巨象も踊る』ルイス・ガースナー
12『ウィニング 勝利の経営』ジャック・ウエルチ他

https://www.nikkeibook.com/book/79552

2018年5月1日火曜日

【本】ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装

【タイトル】 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装
【著者】 斎藤 康毅   (著)
【出版社】 オライリージャパン (2016/9/24)
【発売日】 2016/9/24
【価格】3,672円
【目次】
1章 Python入門
1.1 Pythonとは
1.2 Pythonのインストール
1.2.1 Pythonのバージョン
1.2.2 使用する外部ライブラリ
1.2.3 Anacondaディストリビューション
1.3 Pythonインタプリタ
1.3.1 算術計算
1.3.2 データ型
1.3.3 変数
1.3.4 リスト
1.3.5 ディクショナリ
1.3.6 ブーリアン
1.3.7 if文
1.3.8 for文
1.3.9 関数
1.4 Pythonスクリプトファイル
1.4.1 ファイルに保存
1.4.2 クラス
1.5 NumPy
 1.5.1 NumPyのインポート
1.5.2 NumPy配列の生成
1.5.3 NumPyの算術計算
1.5.4 NumPyのN次元配列
1.5.5 ブロードキャスト
1.5.6 要素へのアクセス
1.6 Matplotlib
 1.6.1 単純なグラフの描画
1.6.2 pyplotの機能
1.6.3 画像の表示
1.7 まとめ
2章 パーセプトロン
2.1 パーセプトロンとは
2.2 単純な論理回路
2.2.1 ANDゲート
2.2.2 NANDゲートとORゲート
2.3 パーセプトロンの実装
2.3.1 簡単な実装
2.3.2 重みとバイアスの導入
2.3.3 重みとバイアスによる実装
2.4 パーセプトロンの限界
2.4.1 XORゲート
2.4.2 線形と非線形
2.5 多層パーセプトロン
2.5.1 既存ゲートの組み合わせ
2.5.2 XORゲートの実装
2.6 NANDからコンピュータへ
2.7 まとめ
3章 ニューラルネットワーク
3.1 パーセプトロンからニューラルネットワークへ
3.1.1 ニューラルネットワークの例
3.1.2 パーセプトロンの復習
3.1.3 活性化関数の登場
3.2 活性化関数
3.2.1 シグモイド関数
3.2.2 ステップ関数の実装
3.2.3 ステップ関数のグラフ
3.2.4 シグモイド関数の実装
3.2.5 シグモイド関数とステップ関数の比較
3.2.6 非線形関数
3.2.7 ReLU関数
3.3 多次元配列の計算
3.3.1 多次元配列
3.3.2 行列の内積
3.3.3 ニューラルネットワークの内積
3.4 3層ニューラルネットワークの実装
3.4.1 記号の確認
3.4.2 各層における信号伝達の実装
3.4.3 実装のまとめ
3.5 出力層の設計
3.5.1 恒等関数とソフトマックス関数
3.5.2 ソフトマックス関数の実装上の注意
3.5.3 ソフトマックス関数の特徴
3.5.4 出力層のニューロンの数
3.6 手書き数字認識
3.6.1 MNISTデータセット
3.6.2 ニューラルネットワークの推論処理
3.6.3 バッチ処理
3.7 まとめ
4章 ニューラルネットワークの学習
4.1 データから学習する
4.1.1 データ駆動
4.1.2 訓練データとテストデータ
4.2 損失関数
4.2.1 2乗和誤差
4.2.2 交差エントロピー誤差
4.2.3 ミニバッチ学習
4.2.4 [バッチ対応版]交差エントロピー誤差の実装
4.2.5 なぜ損失関数を設定するのか?
4.3 数値微分
4.3.1 微分
4.3.2 数値微分の例
4.3.3 偏微分
4.4 勾配
4.4.1 勾配法
4.4.2 ニューラルネットワークに対する勾配
4.5 学習アルゴリズムの実装
4.5.1 2層ニューラルネットワークのクラス
4.5.2 ミニバッチ学習の実装
4.5.3 テストデータで評価
4.6 まとめ
5章 誤差逆伝播法
5.1 計算グラフ
5.1.1 計算グラフで解く
5.1.2 局所的な計算
5.1.3 なぜ計算グラフで解くのか?
5.2 連鎖率
5.2.1 計算グラフの逆伝播
5.2.2 連鎖率とは
5.2.3 連鎖率と計算グラフ
5.3 逆伝播
5.3.1 加算ノードの逆伝播
5.3.2 乗算ノードの逆伝播
5.3.3 リンゴの例
5.4 単純なレイヤの実装
5.4.1 乗算レイヤの実装
5.4.2 加算レイヤの実装
5.5 活性化関数レイヤの実装
5.5.1 ReLUレイヤ
5.5.2 Sigmoidレイヤ
5.6 A.ne/Softmaxレイヤの実装
5.6.1 A.neレイヤ
5.6.2 バッチ版A.neレイヤ
5.6.3 Softmax-with-Lossレイヤ
5.7 誤差逆伝播法の実装
5.7.1 ニューラルネットワークの学習の全体図
5.7.2 誤差逆伝播法に対応したニューラルネットワークの実装
5.7.3 誤差逆伝播法の勾配確認
5.7.4 誤差逆伝播法を使った学習
5.8 まとめ
6章 学習に関するテクニック
6.1 パラメータの更新
6.1.1 冒険家の話
6.1.2 SGD
 6.1.3 SGDの欠点
6.1.4 Momentum
 6.1.5 AdaGrad
 6.1.6 Adam
 6.1.7 どの更新手法を用いるか?
6.1.8 MNISTデータセットによる更新手法の比較
6.2 重みの初期値
6.2.1 重みの初期値を0にする?
6.2.2 隠れ層のアクティベーション分布
6.2.3 ReLUの場合の重みの初期値
6.2.4 MNISTデータセットによる重み初期値の比較
6.3 Batch Normalization
 6.3.1 Batch Normalizationのアルゴリズム
6.3.2 Batch Normalizationの評価
6.4 正則化
6.4.1 過学習
6.4.2 Weight decay
 6.4.3 Dropout
 6.5 ハイパーパラメータの検証
6.5.1 検証データ
6.5.2 ハイパーパラメータの最適化
6.5.3 ハイパーパラメータ最適化の実装
6.6 まとめ
7章 畳み込みニューラルネットワーク
7.1 全体の構造
7.2 畳み込み層
7.2.1 全結合層の問題点
7.2.2 畳み込み演算
7.2.3 パディング
7.2.4 ストライド
7.2.5 3次元データの畳み込み演算
7.2.6 ブロックで考える
7.2.7 バッチ処理
7.3 プーリング層
7.3.1 プーリング層の特徴
7.4 Convolution/Poolingレイヤの実装
7.4.1 4次元配列
7.4.2 im2colによる展開
7.4.3 Convolutionレイヤの実装
7.4.4 Poolingレイヤの実装
7.5 CNNの実装
7.6 CNNの可視化
7.6.1 1層目の重みの可視化
7.6.2 階層構造による情報抽出
7.7 代表的なCNN
 7.7.1 LeNet
 7.7.2 AlexNet
 7.8 まとめ
8章 ディープラーニング
8.1 ネットワークをより深く
8.1.1 よりディープなネットワークへ
8.1.2 さらに認識精度を高めるには
8.1.3 層を深くすることのモチベーション
8.2 ディープラーニングの小歴史
8.2.1 ImageNet
 8.2.2 VGG
 8.2.3 GoogLeNet
 8.2.4 ResNet
 8.3 ディープラーニングの高速化
8.3.1 取り組むべき問題
8.3.2 GPUによる高速化
8.3.3 分散学習
8.3.4 演算精度のビット削減
8.4 ディープラーニングの実用例
8.4.1 物体検出
8.4.2 セグメンテーション
8.4.3 画像キャプション生成
8.5 ディープラーニングの未来
8.5.1 画像スタイル変換
8.5.2 画像生成
8.5.3 自動運転
8.5.4 Deep Q-Network(強化学習)
8.6 まとめ

https://www.amazon.co.jp/%E3%82%BC%E3%83%AD%E3%81%8B%E3%82%89%E4%BD%9C%E3%82%8BDeep-Learning-%E2%80%95Python%E3%81%A7%E5%AD%A6%E3%81%B6%E3%83%87%E3%82%A3%E3%83%BC%E3%83%97%E3%83%A9%E3%83%BC%E3%83%8B%E3%83%B3%E3%82%B0%E3%81%AE%E7%90%86%E8%AB%96%E3%81%A8%E5%AE%9F%E8%A3%85-%E6%96%8E%E8%97%A4-%E5%BA%B7%E6%AF%85/dp/4873117585/ref=sr_1_9?ie=UTF8&qid=1525162510&sr=8-9&keywords=Python

【本】人工知能

https://blog.codecamp.jp/ai_eight_books

【仕事】グロービス

グロービス学び放題

https://hodai.globis.co.jp/

【設計】危機意識

限界を感じ取れるかどうか

【設計】EMS

電子機器受託製造サービス

https://ja.wikipedia.org/wiki/EMS_(%E8%A3%BD%E9%80%A0%E6%A5%AD)