FC2ブログ
にほんブログ村 為替ブログへ にほんブログ村 為替ブログ バイナリーオプションへ にほんブログ村 為替ブログ FX テクニカルトレード派へ にほんブログ村 株ブログ 株の基礎知識へ ブログランキング ドット ネット
 

テクニカル講座上級の部屋

ほったらかしのメタトレードで資産1億円を目指す
 
 
最新記事
お勧めサイト
今月から楽天のアフェリエイトをやっています。
サイトを経由するだけで、購入金額の1%が懐に入ってきます。
ぜひぜひ、皆様もお試しくださいね。
カテゴリ
★ アフェリエイト ★ 
今月から楽天のアフェリエイトをやっています。
サイトを経由するだけで、購入金額の1%が懐に入ってきます。
ぜひぜひ、皆様もお試しくださいね。
カレンダー
11 | 2020/12 | 01
- - 1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31 - -
最強EA

最強EA 9.2

無料ダウンロード

コロナ禍にふと思う・・・ 

師走である。

コロナの影響というのは、直接的ではないかもしれないが
企業がリモートワークを推進するごとに、残業がなくなり
ダイレクトに家計に響いている気がする。

だって、リモートワークのために投資したことは、
  • 昇降机
  • ブルブルマシン
  • バランスチェア
  • 足元ヒータ

すべてこれ、個人の購入かもしれないが、こうして電気代や光熱費も
本来は企業が負担して当然の経費なはずである。

通勤代はテコ入れされてはいないが、そのうち日本企業がリモートワークを
今後も続けるのであれば、どこかでカットされるだろう。

何かの記事で読んだが、これらの負担が企業年金の財源になっているとも聞く。

これからは、日本社会全体を見渡して、社会構造を変化させていく、
大きな社会実装を迫られているのだろうと思う。

そんな呟きをしつつ、やはり一方でAIを駆使できるエンジニアと、
FXトレーダの両立で、今後の自分の先行きもしっかり見据えなければならない・・・


今日はあと年末を4日残すのみとなり、いろいろ振り返りをやっている。

溜めに溜めた本棚のIT書籍を眺めながら、この額いくらなんだろうと・・・
ふと気になったが、これらの書物はいつか自分の投資となって
戻ってくるとは信じている。
(本来、IT企業に勤めていたら、会社の書籍で自由に読めていいレベルと思うが、
会社の図書館で借りれる書籍は、ACCESS、JAVAなど昔、ITシステム部門が
自前で開発していたころの残骸しかない・・・)

これからは、ますます企業に縛られず、自分自身で生き残りをかけた
戦いができるように、いまは試練といったところか・・・

このコロナ禍で多くの人が、苦しんでいると思う。
しかしながら、このピンチはチャンスでもあり、
いかに変化に柔軟に対応できるか・・・
それは生物の進化の法則であり、そうして生き残った者だけが
後世に残るんだと思う。


スポンサーサイト



第8回 AIシステムトレード開発  

近況


コロナの影響はじわじわと押し寄せており、
昨日はMEGAドンキーに行ったのであるが、結構人が多くて
マスクをしていても、どこも混雑していて、
ときどき、ここでコロナ出たら、一巻の終わりやんか・・・って、状況によく出くわす。

別に街に出たところで、何もいいこともないのであるが、
やはり性格的には、不要不急の外出をしなくては、いけない性質(たち)なんだと思う。

そうして、どこかでコロナに感染してしまう・・・
(世の中の人々の大半が、そうなんだと思うが)


本題


今日の本題であるが、やはりAIというのは、
学習データの与え方や、ネットワークの組み方など
いわゆる、調教の部分に難しさを感じている。

自分の手足以上に、ペットを飼いならすかのごとく
どんな餌を与えて、どんな環境で飼育したら、
言うことを聞いてくれるのか、なかなか難しいように思う。

本屋に行って、それこそPythonを使ってAIの本は
山ほど見つかるのであるが、どのような構成でモデリングしたらよいのか
その部分については、あまり開示されていないように思う。

とりあえず、この週末に検討したこととしては
1)教師データを増やすこと
 これまで日足で5000データほど与えていたが、PFデータでは時間圧縮がされるため、これを15分足にしてみた。

 データはOANDAのメタトレードのものをCSV保存して使っている。

2)ハイパーパラメータの工夫
 BATCHサイズや、時間軸のステップ長さなど、まだまだ調整する必要がある。
 これらの変更と調整の部分で、ソースコードを関数式に変更した。
 パラメータ調整自体が、最適化問題になるため、この部分は別途でループを回す必要がある。
 MT4であれば、遺伝的最適化法があるが、AIの場合は外付けで最適化問題を解く必要がある。

3)最適化法
 大学院時代にやっていた共役勾配法が、こんな時に役に立ってくるとは・・・
 「ハイパーサーミアの加温条件最適化の研究」という、修士論文であるが、25年も前に
AIがまだ無名な時代に学んだことがある。
 会社に入ってからは、実験計画法という形で、条件最適化をやっていて、この知識も融合すれば
鬼に金棒の気がする。
 結局AIの知識って、プログラミングだけの話と思っていたが、
統計解析や品質工学やモデル解析など、いろんなことが絡んでくるねえ・・・
 会社に入って、熱解析シミュレーションや構造最適化をやっていたので、
そういう知識を生かせるのかもしれない。





第7回 AIシステムトレード開発  

なんとなく完成した


P&Fチャートを使ったAI予測結果を示す。

真値
true.png
AI予測
pred.png

モデル


  • 入力ベクトルは下記の9つとした。
  • pips 0.0005から0.0013まで、0.0001づつ増やしたPFチャート
  • タイムスパン history_points = 20
  • 結局はLSTMを2層使っている
  • 入力ベクトル 9 + 時間ベクトル 20という感じ
  • ほぼ強引に一致させた感じである
  • ハイパーパラメータの調整が難しい

    pff1 = csv_to_dataset_pf(data,0.0005,i,500)
    pff2 = csv_to_dataset_pf(data,0.0006,i,500)
    pff3 = csv_to_dataset_pf(data,0.0007,i,500)
    pff4 = csv_to_dataset_pf(data,0.0008,i,500)
    pff5 = csv_to_dataset_pf(data,0.0009,i,500)
    pff6 = csv_to_dataset_pf(data,0.0010,i,500)
    pff7 = csv_to_dataset_pf(data,0.0011,i,500)
    pff8 = csv_to_dataset_pf(data,0.0012,i,500)
    pff9 = csv_to_dataset_pf(data,0.0013,i,500)

modelp.png

第6回 AIシステムトレード開発 

国立国会図書館 関西館に行ってきました。


AIの棚には、数えきれないぐらいの書籍が並んでいて、
その中からLSTMの項を全部コピーしました。

自然言語処理の本も、多数読みました。
東京から取り寄せた予約したため、今週末にまた行ってきます。

まったく本屋で見たことのないものも多数あり、
すべて書籍名をノートしてきました。

もうAI関係の図書を買いに一般本屋に行くのを辞めます。


PS.
昼食も安く、コロナ禍ですが空いていました。

こんなんが無料で使えるなんて、日本国民はうらやましい。


本論


ここからが今日の本論・・・
とりあえず、予想と正解の比較データをチャートにしてみた。
P&Fチャートを数列にしたものを、0-1の範囲で標準化したので、
どうしても変化の振れ幅の大きいデータに規格化されてしまっている。
どっちかというと、そういう異常なデータはトリミングしてしまった方がいいだろう・・・
Figure_1.png

KERASの処理


a1は教師データx
a2は教師データy

maxa = max(a1.max(),a2.max())      
mina = min(a1.min(),a2.min())

a1=(a1-mina)/(maxa-mina)  0,1で規格化
a2=(a2-mina)/(maxa-mina)    〃

最初、fitとかtransformが、分からへんかったが、ようやく意味が分かった。

要するにfitで統計を計算して、transformで実際のデータに反映する。
今回の場合は、fitを使ってa1の教師データで計算させて(数の少ないa2の方は使わない)
transformでa1,a2に反映させると良いだろう...

それにしてもAIでは、やはりデータの素性というものを吟味しなくてはいけない。
下記の例でいえば、前半と後半では相場の変化量が異なるため、
同じ学習データとして扱ってはならない気がする。

しいて言えば、2つのデータで異なる学習機を作っておき、
それを何らかの運用ルールで切り替えるというような、
少し複雑な処理が必要ではないかと思う。
無題3




第五回 AIシステムトレード開発 

参考資料
 https://math.uni.lu/eml/projects/reports/2020_Summer/DiasMoreira.pdf

#進捗

とりあえずKERASを使って、それらしい計算まで出来るようになった。

時系列分析のため、LSTMというのを使っている。

今回はpoint & figureをベースとして、入力ベクトルには32個のパラメータを割り当てている。

ソースコード

  • 最初に適当な4本足データをCSVで取ってくる。
  • 次にPOINT&FIGUREの数列に加工する。
  • PFF1,PFF2,PFF3というのが、PFFを時間軸で数列化したものだ。
 [分割数200のPF数列×19個] [分割数150のPF数列×9個] [分割数100のPF数列×4個] = 32個
  • PF数列は指定日までを時系列に推移させて計算し、それをケツから使っている
  • ケツ[0]が予想すべきデータで、ケツ一個手前[-1]から[-n]までが予想に使うデータである
  • データ長は分割数が小さいほど、データ数が少なくなるように配分している
  • KERASには、全データ範囲で0,1になるように変換したものを突っ込んでいる

AI部分のコードはパクっただけ。
内容ははっきり言って、何にも分かっていない・・・

いちおう、糞リポジトリを置いておく
煮るなり焼くなり、好きにしやがれ!!

model.png

Figure_1.png

NURO光にぬろっと切り替えた話 

最近、NAS(DJ218+)でサーバーを立てて何か
こちょこちょしようかと思って、随分と悩んでいたのだが・・・

どうやらOCN光では、やはりポート開放を諦めないといけないとわかる。


そこで2021/1月に2年縛りから解放されるというので、
思い切ってネット環境をNURO光に切り替えました。

来週に工事があり、年内には開通できそうです。

NUROに切り替えた暁には、DS218のサーバーを公開して
まずやりたいこととしては・・・

1)REDMINEのオープン
 → これは家と会社でそれぞれ使っているものを共通化したい

2)5か国語辞書
 → これもWEB-APP化までは出来ているが、まだWEBサービスとして公開できていない

3)WORDRESS
 → これからのAIアプリ公開に向けて、先ずはサーバーを立てることをやってみたい


そんな訳で、最近はいったん色々なWEB開発を停止して、Deep Learningの勉強に
本腰を入れています。

AIトレードもどうも今一歩のところで、AI理解不足の感が否めず、
年内は進展はなさそうです。

さて、コロナ禍ですが、お正月は親戚イベントは無になりました。

ゆえに、来週に愛車のスノータイヤを新調して、どこかに冬はドライブでも
行こうかなと考えています。

何十年ぶりか、またスキーを始めてみようかなどとも考えています。

というわけで、最近はポセイドン石川のYOUTUBEにハマっています。


2020振り返り 

個人的にこの1年の出来たことを書き留める

  • WEB開発 → 一通りのところまで階段は登れた → さくさくと仕事のDBアプレは作れるようになった
  • スマホアプリ → ICONIC+ANGULAER → 道筋をつけることは完了した
  • 心身鍛錬 → REMOTE体制+散歩+夜中ダイエット、左右バランス → 軌道に乗せられた
  • REMOTE → 自宅OFFICEのノーストレス化(冬場対策) → ほぼ軌道に乗ることが出来た
  • ベッド廃棄 → 部屋の効率化、UP-DOWNデスク,ローリング椅子2個、腕立て
  • 武道調べ → 合気道、八光流、詠春拳 → 調査を終了
  • 山コミュ → 完全FACEBOOKで不動の地位を確立した
  • 仕事 → 7月から完全部署移動 → ストレス払拭
  • G検定 → 無事に合格
FC2カウンター
メインコンテンツ
リンク
プロフィール

motochan

Author:motochan
【ご挨拶】

このブログのモットーとしては、やはり初心者のためのテクニカル講座という分かりやすさを重視したいと思っています。ちょいちょい脱線めいた話や自虐ネタを満載していますが、さらりと受け流していただければと思います。リンクや画像については、個人の使用の範囲と考えておりますが、万一、無断転用とかでお叱りを受ける場合には、すみやかに削除いたしますので、ご指摘いただきたく思います。
詳細はコチラ>>
ブログ村