FORTNITEで後からEPICアカウントと紐付ける方法

FORTNITEで後からEPICアカウントと紐付ける方法

PS4でEPICアカウントを作成せずに始めて、その後、別で作成したEPICアカウントに切り替える方法。単純にEPICアカウントからPLAYSTATION NETWORKに接続しようとすると、「そのアカウントは既に別のEPICアカウントに紐付いているよ」と言われて接続できません。そのような場合は下記の手順を試してください。

  1. FORTNITEのサイトに行く
  2. ログインしていたら右上の名前をクリックして、「SIGN OUT」
  3. 右上の人のアイコンをクリックして「PLAYSTATION」をクリック
  4. SONY ENTERTAINMENT NETWORKのIDでログイン
  5. 新規に別のEPICアカウントを作成(既に登録済みのEPICアカウントで使用しているメールアドレスは使えません)
  6. 新たに作成したEPICアカウントのメールアドレス宛に確認のメールが来るので、「VERIFY YOUR EMAIL」をクリック
  7. 接続済みアカウント」のページでPLAYSTATION NETWORKの「接続を切る」(いろいろ確認が出ますが、全部チェックしてください)
  8. EPICアカウントからログアウト
  9. 紐付けたいEPICアカウントで再度ログインして、「接続済みアカウント」からPLAYSTATION NETWORKを「接続」

上記の手順では既存のEPICアカウントとは別のEPICアカウントを作成する必要があるので、メールアドレスが2つ必要になります。また、いらなくなった別のEPICアカウントを削除する方法はないようです。

Yahoo!知恵袋見ても解決策が見つからなかったので、本家を見たら解決した。

参考:When I try to link my PSN/XBL account to my Epic account, it says that my PSN/XBL account is already linked to an Epic account.

追記:私の場合、①PS4版のFORTNITEをEPICアカウント作成せずにプレイ、②iOS版のFORTNITEでEPICアカウントを作成してプレイ、③上記手順でPS4 の紐付けを変更したのだけど、PS4のセーブデータがiOSに引き継がれた。なぜだろう?PS4のローカルにセーブデータが残っているとは思えないけどなぁ。

広告
「Kerasを用いたディープラーニング(LSTM)による株価予測」をやってみた

「Kerasを用いたディープラーニング(LSTM)による株価予測」をやってみた

元ネタはこちら。

書いたソースコードはこちら。

元ネタではEXCELでテストデータを加工してねという感じだったけど、Pandasでやった方が早そうだったのでPytohnで書いた。たぶん問題なく加工できていると思う。

1点だけ元ネタのソースコードでは動かなかったコードがあった。「学習データのテンソル化と、訓練データ/評価データ/テストデータへの分割」のところで、

len_seq = x_data.shape[0]  maxlen + 1

となっているけど、ここの x_data を t_data に変えればちゃんと動いた。たぶん t_data であっていると思う。

学習は多少時間がかかったが、10分程度。まあ許容範囲内。

結果は、正答率: 0.34432515337423314、準正答率(騰落): 0.5421779141104295 ということで、まあ50%は多少超えている程度。そんなによくない。

元ネタでは

予測精度を改善するため、日経平均の始値(Open)、高値(High)、安値(Low)、およびNYダウ、ドル円、DAX指数、ハンセン指数、TOPIX、NASDAQ、SP500、上海総合指数を入力データに追加する。

とあるけど、他の市場のデータを使うのは禁じ手ではないだろうか。NY証券取引所がオープンする頃にはすでに東証はクローズしているわけで、NYダウやドル円の同じ日のデータを使うということは、もう東証がクローズした後のデータを使うということ。仮にそのデータを使って値上がりすることが予測できたとしても、もう東証のクローズ価格で買うことはできないのだから。

逆に言うと、本来手に入らないはずの未来のデータを使って予測するんだから、精度が上がって当然という気もする。

東証がクローズする前に入手できるデータだけを使って精度が向上するのであれば、面白いね。(「自分でやってみろ」という声が聞こえる)

Photo by Alex Jodoin on Unsplash

追記:

同じことをGoogle ColabのGPUランタイムでやってみたけど、Google Colabの方が遅かった。実はAzure Notebooks優秀?

Python機械学習プログラミング

Python機械学習プログラミング

達人データサイエンティストによる理論と実装

のブックレビューを書きたいんだが、まだ全部読めていない。実は1年ほど前に入手して、それから何度か読んでは挫折、読んでは挫折を繰り返している。

結構数式がいっぱい出てくるので、それを丁寧に追いかけていくのがつらい感じ。

でも以前に比べてだいぶ機械学習や数学に関する知識は増えたと思っているので、もう一度トライしてみようかと思う。そして、いつの日か晴れてここにブックレビューを書ける日が来ればなと思う。

今見たらもう第二版が出ているんですね。

Azure NotebooksはGitHubからクローンできるのでオススメ

Azure NotebooksはGitHubからクローンできるのでオススメ

言語処理100本ノックでも使っている「Azure Notebooks」はとてもオススメ。

Currently the service itself is free. This may change in the future, but we hope to always have a free tier available.

とのことなので、今のところ無料で使えるし、簡易的な用途であれば将来に渡っても無料で使えそう。

Azure Notebooksのいいところは、GitHubから簡単にクローンしてすぐに始められる事。

例えば、先日ご紹介したPythonではじめる機械学習」はGitHubにソースコードが公開されているのでこれをクローンしてみよう。

まずはAzure Notebooksを開いて、Microsoftアカウントでサインインする。で、「New Library」をクリックしたら「Create New Library」というダイアログが出てくるので、そこで「From GitHub」というタブをクリックする。

fromgithub

後はGitHubのURLをそのままコピペして、適当なLibrary名とIDをつけてImportするだけ。しばらく待てばノートブックファイルが開けるようになる。

この点はGoogle Colabにはない機能。Google Colabでもgitコマンドを実行してクローンしてくる事はできるんだが、それをGoogle Colabのノートブックとして開くことができない。それ以外にもローカルファイル関係で普通のJupyter Notebookとは動きが異なっていて、とても使いにくい。Google ColabはGPUが使えるのがいいんだが・・・

将来的にはAzure NotebooksもGPUが使えるようになるかもね。有料になるかもしれないけど。

PCA(主成分分析)って意味あんのか?

PCA(主成分分析)って意味あんのか?

PCA(主成分分析)という教師なし学習手法があるわけだけど、正直意味があるのか疑問。

PCAは分散が大きい方向だけを使うことで次元を削減させる等に使われるわけだけれど、果たして「分散が大きい方向」というのが本当に重要な特徴なのか疑問。

だいたい、データなんていうものは、例えば、身長とか体重とか年齢とかそういうもので、単位も意味も違う特徴量の寄せ集めなわけで、それらをごちゃ混ぜにして分散が大きい方向とか言ったってそれで重要性を判断するのは強引すぎると思うわけです。

ほんの少しの差が結果に大きく寄与することだって十分考えられるわけです。

そういった問題を避けるために、データを標準化してからPCAかけたとしても、全部の軸が平均0分散1になった状態で「分散が大きい方向」ってさらに意味があるのか疑問。単にお互いに相関の高い複数の軸の方向に偏るだけなんじゃないだろうか。

多次元の空間を人間が認識しやすいように低次元で表現するとかいうことには確かに意味があるかもしれないが、PCAで次元削減なんかすると本当に重要な情報が過小評価されて、悪影響しかないように思う。

他に何かPCAって意味があるんだろうか。教えてエロい人。

Photo by Nick Hillier on Unsplash