Pythonを用いて情報収集し、Wordpressへの投稿まで全て自動化したサイトが1週間ほど前に完成しました。
やったことは
①レンタルサーバでPythonを使う方法を調べる
②Python言語を覚える
③Vimを使ってPythonでクローラーを作成
④レンタルサーバにMySQLを準備
⑤Python言語でクローラーで取得したデータをスクレイピングして④に保存
⑥レンタルサーバでCronで毎日同じ時間に自動で処理を行うようにする
⑦お試し用のWordpressを用意、ドメイン取得
⑧Pythonでコードから⑦に対して投稿する
⑨上記全てを組み合わせて自動データ収集、自動投稿を構築する
そこまで難しいことはしていないので構想からPythonの勉強、実装含めてTOTAL40時間ほどで完成しました。
Pythonが使いやすく優秀でした。
★出来たサイト -情報収集 in 東京-
出来たサイトは以下です。
外部リンク:情報収集 in 東京 – 株情報
私が株を選定するときの要素として、出来高ランキングの推移などをスクリーンショットを取って前日と比較することをしてました。
それを機械的にやりたかったので作りました。
そのランキングの変動からチャートや別サイトを参考にするので、外部リンクもすぐ飛べるようにしました。
本当はもっと分析等をした結果を出したかったんですが、株価に著作権があったため、株価を出せませんでした。
著作権として気になる記載もあったので、出来高も出すのをやめておきました。
残念!
実際に次のように出しています。
またランキングの変動で上昇したものが一目でわかるように出しておいてます。
★今回使った技術 素人おすすめのPythonサイト
今回使った技術や手法は別途、記事にしていきます。
MixhostサーバーでのPythonとPythonのパッケージやVimの使い方などです。
Mixhostサーバーでは、Root権限が与えられないため開発していくには少しだけ気を付ける必要があります。
その辺を書いていく予定です。
Pythonの基礎などは優秀なサイトがわんさかあるので、私はわざわざ書きません。
私が参考にした一部のサイトは以下に書いておきます。
素晴らしい内容です。これだけで開発できます!
外部リンク:Python入門
外部リンク:【python超入門!】クラスやメソッドについて解説します。
外部リンク:【Pythonクローラー入門】クローリング スクレイピング方法 総まとめ
★今後新たに作るもの
現在、Webサイトとアプリの2つを大きな軸に作りたいアイディアがたくさんあるため、1個ずつ作っていくつもりです。
しかしながら、仕事をしながらだとどうしても進捗が遅くなってしまう現状です。
のんびり作っていきます。
今回のPythonでの開発でしっかりとオブジェクト指向で部品を作ったので、それらを用いてもう一つサイトを作るつもりですが。
先にFlutterを用いてのスマホアプリを設計中です。
単語などを別ファイルから読み取れるようにしてマルチ言語対応させて、海外向けも作ろうと思います。
正直、日本より東南アジアなどに向けたものを作っていきたいと思います。
完成まで、数か月かかりそうです。
他にいいの思いついたらそっちを作るかもしれませんし。
自由に開発を進めていきます。
読んで頂き、ありがとうございます。
この記事が誰かにとって、一つの参考となれば幸いです。
新たな知識や技術を習得し続けていきたいです。
コメント
良いブログですね。どうか消さないでくださいね。
もやしさん。ありがとうございます!