Python×WordPress スクレイピング術

「WordPressで構築したサイトから、必要な情報を自動で集めたいけど、どうすれば…?」そんな悩みを抱えていませんか?Webスクレイピングは、まさにその解決策。でも、Pythonを使ってどうやるの?難しそう…と感じるかもしれませんね。大丈夫!この記事では、WordPressとPythonを組み合わせて、効率的にWebスクレイピングを行う方法を、わかりやすく解説します。私が試行錯誤した経験も交えながら、データ収集を自動化する第一歩を踏み出しましょう!

目次

スクレイピングとは

スクレイピング、それはまるでWebの海に潜って、必要な情報を宝物のように探し出す冒険です。私もAI自動化の世界に足を踏み入れた頃、スクレイピングの可能性にワクワクしたのを覚えています。でも最初は、まるで暗号解読みたいで、ちょっと苦労しましたね(笑)。エラーメッセージとにらめっこしながら、図書館で関連書籍を読み漁ったものです。

今では、スクレイピングはAIを動かすための重要なデータ収集手段の一つ。マーケティング分析から、競合調査、コンテンツ作成まで、様々な分野で活用されています。でも、ちょっと待ってください!スクレイピングは、ただ情報を集めるだけではありません。 ethicalなスクレイピングを心がけ、Webサイトに負荷をかけすぎないように注意することが大切なんです。私も過去に、アクセス頻度が高すぎて、相手のサーバーに負荷をかけてしまった苦い経験があります。

スクレイピングの基本と倫理

スクレイピングとは、Webサイトから情報を抽出する技術のこと。WebサイトのHTML構造を解析し、必要な情報をプログラムで自動的に収集します。例えば、ECサイトの商品価格やレビュー、ニュースサイトの記事などを収集できます。

でも、ここで大切なのが「倫理」です。Webサイトには、アクセス制限や利用規約があります。robots.txtファイルを確認し、スクレイピングが許可されているか確認しましょう。また、大量のアクセスを短時間に集中させるのは、サーバーに負荷をかける行為なので絶対にNG。相手の迷惑にならないよう、適切な間隔を空けてアクセスすることが重要です。

robots.txtの確認方法

robots.txtは、Webサイトのルートディレクトリに置かれているテキストファイルです。このファイルには、クローラー(スクレイピングプログラム)に対する指示が書かれています。例えば、特定のディレクトリへのアクセスを禁止したり、アクセス頻度を制限したりする指示が含まれています。

robots.txtを確認するには、ブラウザで「https://example.com/robots.txt」(example.comはWebサイトのドメイン)にアクセスします。ファイルの内容を読み、スクレイピングが許可されているか確認しましょう。許可されていない場合は、スクレイピングを控えるべきです

リクエスト頻度の調整

スクレイピングを行う際には、Webサイトに負荷をかけすぎないように、リクエスト頻度を調整することが重要です。短時間に大量のアクセスを集中させるのではなく、適切な間隔を空けてアクセスしましょう。

Pythonのtime.sleep()関数を使うと、簡単にアクセス間隔を調整できます。例えば、1秒ごとにアクセスする場合は、time.sleep(1)と記述します。Webサイトの規模やサーバーの負荷状況に合わせて、適切な間隔を設定しましょう。

スクレイピングの具体的な方法

スクレイピングを行うには、プログラミング言語とライブラリが必要です。Pythonは、スクレイピングに最適な言語の一つ。豊富なライブラリとシンプルな構文で、初心者でも比較的簡単にスクレイピングプログラムを作成できます。

代表的なライブラリとしては、BeautifulSouprequestsScrapyなどがあります。BeautifulSoupは、HTMLやXMLを解析するためのライブラリ。requestsは、Webサイトにアクセスするためのライブラリ。Scrapyは、より高度なスクレイピングを行うためのフレームワークです。

BeautifulSoupを使ったスクレイピング

BeautifulSoupは、HTMLやXMLを解析し、必要な情報を抽出するためのライブラリです。例えば、Webサイトのタイトルや見出し、段落などを簡単に取得できます。

まず、requestsを使ってWebサイトのHTMLを取得します。次に、BeautifulSoupを使ってHTMLを解析し、目的の要素を抽出します。例えば、以下のコードは、Webサイトのタイトルを取得する例です。

import requests
from bs4 import BeautifulSoup

url = 'https://example.com'
response = requests.get(url)
soup = BeautifulSoup(response.content, 'html.parser')
title = soup.title.text
print(title)

Scrapyを使ったスクレイピング

Scrapyは、より高度なスクレイピングを行うためのフレームワークです。大規模なWebサイトから効率的にデータを収集したり、複数のWebサイトを同時にスクレイピングしたりできます。

Scrapyを使うには、まずプロジェクトを作成します。次に、スクレイピング対象のWebサイトと、抽出するデータを定義します。Scrapyは、定義されたルールに従って自動的にWebサイトをクロールし、データを収集します。

Python環境構築

Python環境構築、最初の難関ですよね!私も初めて環境構築に挑戦したときは、エラーが頻発して、心が折れそうになりました(笑)。「なんで動かないの〜!」って叫んだ記憶があります。でも、一つずつ解決していくうちに、プログラミングの面白さに目覚めていったんです。

環境構築は、プログラミングを始めるための土台作り。しっかりとした土台があれば、その上にどんな建物でも建てられます。Pythonの環境構築も同じ。しっかり理解して、スムーズに進めていきましょう。

Pythonのインストール

Pythonを使うには、まずPythonをインストールする必要があります。Pythonの公式サイトから、自分のOSに合ったインストーラをダウンロードしましょう。Windows、macOS、Linuxなど、様々なOSに対応しています。

インストール時には、いくつかのオプションを選択する必要があります。特に重要なのは、「Add Python to PATH」というオプション。これを選択すると、Pythonの実行ファイルがシステムのパスに追加され、コマンドプロンプトやターミナルからPythonを実行できるようになります。

Windowsでのインストール

WindowsにPythonをインストールするには、まずPythonの公式サイトからWindows用のインストーラをダウンロードします。インストーラを実行し、「Add Python to PATH」にチェックを入れて、インストールを進めます。

インストールが完了したら、コマンドプロンプトを開き、「python –version」と入力してPythonのバージョンを確認しましょう。バージョンが表示されれば、インストールは成功です。

macOSでのインストール

macOSには、最初からPythonがインストールされていますが、古いバージョンの場合があります。最新のPythonを使うには、Homebrewというパッケージマネージャを使ってPythonをインストールするのがおすすめです。

Homebrewをインストールするには、ターミナルを開き、以下のコマンドを実行します。

/bin/bash -c '$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)'

Homebrewのインストールが完了したら、ターミナルで「brew install python」と入力してPythonをインストールします。インストールが完了したら、「python3 –version」と入力してPythonのバージョンを確認しましょう。

仮想環境の構築

Pythonのプロジェクトごとに、必要なライブラリのバージョンが異なる場合があります。そのような場合に、仮想環境を使うと便利です。仮想環境とは、プロジェクトごとに独立したPython環境のこと。仮想環境を使うことで、プロジェクト間のライブラリの競合を避けることができます。

Pythonには、venvという標準の仮想環境構築モジュールが付属しています。venvを使うと、簡単に仮想環境を作成できます。

venvを使った仮想環境の作成

venvを使って仮想環境を作成するには、まずプロジェクトのディレクトリに移動します。次に、以下のコマンドを実行します。

python -m venv .venv

このコマンドは、.venvというディレクトリに仮想環境を作成します。仮想環境を有効にするには、以下のコマンドを実行します。

source .venv/bin/activate # macOS/Linuxの場合
.venv\Scripts\activate # Windowsの場合

仮想環境が有効になると、コマンドプロンプトやターミナルのプロンプトの先頭に、仮想環境の名前が表示されます。仮想環境を無効にするには、「deactivate」と入力します。

pipを使ったライブラリのインストール

仮想環境が有効になったら、pipを使って必要なライブラリをインストールします。pipは、Pythonのパッケージを管理するためのツールです。pipを使うと、PyPI(Python Package Index)から簡単にライブラリをインストールできます。

例えば、requestsライブラリをインストールするには、以下のコマンドを実行します。

pip install requests

インストールされたライブラリは、仮想環境の中に保存されます。プロジェクトごとに必要なライブラリをインストールすることで、ライブラリの競合を避けることができます。

wordpress python web scraping

WordPressデータ収集

Webサイトのデータ収集、特にWordPressサイトからのデータ収集って、結構奥が深いんです。私も最初は、WordPressの構造がちょっと複雑で、どこから手を付ければいいのか途方に暮れた経験があります。でも、PythonとBeautiful Soupの組み合わせを知ってからは、効率的にデータを収集できるようになりました。

データ収集って、単に情報を集めるだけじゃなくて、その後の分析や活用を考えて進めることが大切ですよね。例えば、競合サイトの価格情報を収集して自社の価格戦略に活かしたり、ユーザーのレビューを集めて商品改善に繋げたり。そのためには、目的に合ったツールを選び、安全にスクレイピングを行う必要があります。今回は、WordPressのデータ収集について、私の経験も交えながら、詳しく解説していきますね。

WordPressデータ収集の基礎

WordPressの構造を理解する

WordPressは、PHPで記述されたCMS(コンテンツ管理システム)で、テーマやプラグインを使って柔軟にカスタマイズできるのが特徴です。Webサイトの構造は、HTML、CSS、JavaScriptで構成されており、データはデータベースに保存されています。

データ収集を行う際には、まずWordPressの構造を理解し、目的のデータがどこに格納されているのかを把握することが重要です。例えば、投稿記事の内容はwp_postsテーブル、コメントはwp_commentsテーブルに格納されています。テーマによっては、カスタムフィールドに独自のデータが保存されている場合もあります。

Webスクレイピングの基本

Webスクレイピングとは、Webサイトからデータを抽出する技術のことです。PythonのBeautiful Soupライブラリを使うと、HTMLやXMLを解析し、必要な情報を簡単に抽出できます。

例えば、Webサイトのタイトルを取得するには、Beautiful SoupでHTMLを解析し、<title>タグの内容を取得します。同様に、特定のクラスやIDを持つ要素の内容を取得することも可能です。ただし、Webサイトによってはスクレイピングを禁止している場合があるので、利用規約を確認し、robots.txtに従うようにしましょう。

PythonとBeautiful Soupを使った実践

環境構築とライブラリのインストール

PythonでWebスクレイピングを行うには、まずBeautiful Soupとrequestsライブラリをインストールする必要があります。ターミナルで以下のコマンドを実行します。

pip install beautifulsoup4 requests

requestsライブラリは、WebサイトにアクセスしてHTMLを取得するために使用します。Beautiful Soupは、取得したHTMLを解析し、必要な情報を抽出するために使用します。

簡単なスクレイピングの例

実際に、Beautiful Soupを使ってWebサイトのタイトルを抽出してみましょう。以下のPythonコードを実行します。

import requests
from bs4 import BeautifulSoup

url = 'https://example.com' # 例として、アクセス可能なウェブサイトを指定
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')
title = soup.find('title').text
print(title)

このコードを実行すると、example.comのWebサイトのタイトルが表示されます。URLを自分のスクレイピングしたいWebサイトのものに変更すれば、そのWebサイトのタイトルを取得できます。

実践的なスクレイピングのテクニック

より実践的なスクレイピングを行うには、CSSセレクタを使って特定の要素を抽出したり、複数のページを巡回したりする必要があります。例えば、特定のクラスを持つ要素を抽出するには、soup.find_all(class_='クラス名')を使います。

また、Webサイトによっては、JavaScriptで動的にコンテンツを生成している場合があります。そのような場合は、Seleniumなどのツールを使って、ブラウザを操作しながらスクレイピングを行う必要があります。Seleniumを使うと、JavaScriptの実行結果を取得できるため、動的なコンテンツも問題なくスクレイピングできます。私も最初はSeleniumの設定で苦労しましたが、根気強く調べて、ようやく使えるようになりました。

Beautiful Soup入門

Beautiful Soupは、PythonでWebスクレイピングを行う上で欠かせないライブラリの一つです。私もBeautiful Soupに出会うまでは、正規表現でHTMLを解析しようとして、何度も挫折しかけました。Beautiful Soupのおかげで、HTMLの構造を意識せずに、必要な情報を簡単に抽出できるようになりました。

Beautiful Soupは、HTMLやXMLを解析し、要素を検索したり、属性を取得したりする機能を提供します。Webスクレイピングだけでなく、HTMLの整形や修正にも役立ちます。今回は、Beautiful Soupの基本的な使い方から、応用的なテクニックまで、詳しく解説していきますね。

Beautiful Soupの基本

Beautiful Soupとは何か?

Beautiful Soupは、HTMLやXMLを解析するためのPythonライブラリです。HTMLの構造を解析し、要素をツリー構造として表現します。このツリー構造を使って、要素を検索したり、属性を取得したりできます。

Beautiful Soupは、HTMLの構文エラーにも寛容で、不正なHTMLでも解析できます。また、様々なパーサーをサポートしており、HTMLだけでなく、XMLやJSONも解析できます。

インストールと基本的な使い方

Beautiful Soupをインストールするには、ターミナルで以下のコマンドを実行します。

pip install beautifulsoup4

インストール後、PythonスクリプトでBeautiful Soupを使用するには、まずBeautifulSoupクラスをインポートします。

from bs4 import BeautifulSoup

次に、解析したいHTMLをBeautifulSoupオブジェクトに渡します。

html = '<html><body><h1>Hello, Beautiful Soup!</h1></body></html>'
soup = BeautifulSoup(html, 'html.parser')

html.parserは、Beautiful Soupが使用するパーサーを指定します。他にも、lxmlhtml5libなどのパーサーを使用できます。

要素の検索と属性の取得

Beautiful Soupを使うと、要素を検索したり、属性を取得したりできます。要素を検索するには、find()メソッドやfind_all()メソッドを使います。

find()メソッドは、最初に一致した要素を返します。

h1 = soup.find('h1')
print(h1.text) # Hello, Beautiful Soup!

find_all()メソッドは、一致するすべての要素をリストで返します。

body = soup.find_all('body')
print(body[0].text) # Hello, Beautiful Soup!

要素の属性を取得するには、get()メソッドを使います。

<a href='https://example.com'>Example</a>
a = soup.find('a')
print(a.get('href')) # https://example.com

Beautiful Soupの応用

CSSセレクタを使った検索

Beautiful Soupは、CSSセレクタを使って要素を検索することもできます。CSSセレクタを使うと、より複雑な条件で要素を検索できます。

例えば、特定のクラスを持つ要素を検索するには、soup.select('.クラス名')を使います。

<div class='container'>
  <p class='text'>Hello, Beautiful Soup!</p>
</div>
container = soup.select('.container')
print(container[0].text) # Hello, Beautiful Soup!
text = soup.select('.text')
print(text[0].text) # Hello, Beautiful Soup!

複数のページをスクレイピングする

複数のページをスクレイピングするには、ループを使ってURLを巡回し、各ページでBeautiful Soupを使ってデータを抽出します。

import requests
from bs4 import BeautifulSoup

urls = ['https://example.com/page1', 'https://example.com/page2', 'https://example.com/page3']

for url in urls:
    response = requests.get(url)
    soup = BeautifulSoup(response.text, 'html.parser')
    title = soup.find('title').text
    print(title)

スクレイピングにおける注意点

Webスクレイピングを行う際には、以下の点に注意する必要があります。

  • Webサイトの利用規約を確認し、スクレイピングが許可されているかを確認する。
  • robots.txtに従い、スクレイピングが禁止されているページをスクレイピングしない。
  • Webサイトに負荷をかけないように、適切な間隔を置いてリクエストを送信する。
  • スクレイピングしたデータを商用利用する場合は、著作権に注意する。

私も過去に、スクレイピングの頻度が高すぎて、Webサイトのサーバーに負荷をかけてしまったことがあります。それ以来、リクエストの間隔を調整したり、キャッシュを活用したりするなど、Webサイトに配慮したスクレイピングを心がけています。

スクレイピング実践

Webスクレイピング、最近すごく熱いですよね!私もAI自動化の専門家として、日々大量のデータと格闘しているんですが、そのデータ収集にスクレイピングは欠かせません。でも、最初は本当に苦労しました…。うまく動かないコードとにらめっこしたり、アクセス制限に引っかかったり。でも、諦めずに一つ一つ解決していくうちに、スクレイピングの奥深さと可能性に魅了されていったんです。

特に、WordPressとの連携は本当に便利!自分で作ったサイトのデータを自動で集計したり、競合サイトの情報を分析したり。アイデア次第で色々な活用方法がありますよね。

WordPressとPythonでのスクレイピングの基本

WordPressとPythonを組み合わせたスクレイピング、最初の一歩を踏み出すのは少しハードルが高いかもしれません。でも、基本的な流れを理解すれば、意外と簡単に始められるんですよ。まずは、Pythonのrequestsライブラリを使ってWebページを取得します。次に、Beautiful Soupを使ってHTMLを解析し、必要な情報を抽出します。

WordPressの構造を理解する

WordPressのサイトは、HTML構造が一定のパターンを持っていることが多いんです。例えば、記事のタイトルは<h1>タグ、本文は<p>タグで囲まれていることが多いですよね。このパターンを把握することで、効率的にデータを抽出できます。

PythonとBeautiful Soupでデータを抽出する

PythonでBeautiful Soupを使うと、HTMLタグを指定して簡単にデータを抽出できます。例えば、記事のタイトルを抽出するには、soup.find('h1').textのように書きます。抽出したデータは、CSVファイルやデータベースに保存して、分析に利用できます。

スクレイピング実践でよくある課題と解決策

スクレイピングの実践でよくある課題は、サイトの構造が頻繁に変わること、アクセス制限に引っかかること、データの形式がバラバラなことなどがあります。これらの課題を解決するために、いくつかの対策を講じる必要があります。

サイト構造の変化に対応する

Webサイトの構造は、予告なく変更されることがあります。そのため、スクレイピングのコードは定期的にメンテナンスする必要があります。特に、重要なデータの抽出箇所は、常に最新の状態に保つようにしましょう。

アクセス制限を回避する

Webサイトによっては、スクレイピングを禁止している場合があります。スクレイピングを行う際は、robots.txtを確認し、サイトの利用規約を遵守するようにしましょう。また、アクセス間隔を調整したり、User-Agentを設定したりすることで、アクセス制限を回避できる場合があります。

データ保存方法

スクレイピングしたデータを保存する方法も重要ですよね。私も色々試しましたが、結局、データの種類や量、利用目的に合わせて最適な方法を選ぶのが一番だと感じています。CSVファイルに保存したり、データベースに格納したり、JSON形式で保存したり。

データの種類に合わせた保存形式の選択

スクレイピングで収集するデータの種類によって、最適な保存形式は異なります。例えば、表形式のデータであればCSVファイル、複雑な構造を持つデータであればJSON形式が適しています。データベースに保存する場合は、データの種類に合わせて適切なデータ型を選択する必要があります。

CSVファイルでの保存

CSVファイルは、シンプルな表形式のデータを保存するのに適しています。Excelなどのスプレッドシートソフトで簡単に開けるため、データの確認や編集が容易です。Pythonのcsvモジュールを使うと、CSVファイルの作成や読み込みが簡単に行えます。

データベースへの保存

大量のデータを効率的に管理するには、データベースへの保存が適しています。MySQLやPostgreSQLなどのリレーショナルデータベースや、MongoDBなどのNoSQLデータベースなど、さまざまな種類のデータベースがあります。データの種類や利用目的に合わせて、最適なデータベースを選択する必要があります。

データ保存時の注意点

データを保存する際には、いくつか注意すべき点があります。文字コードの問題や、データの重複、欠損値の処理などです。これらの問題に対処することで、データの品質を向上させることができます。

文字コードの問題

Webサイトの文字コードと、保存するデータの文字コードが異なる場合、文字化けが発生することがあります。スクレイピングを行う際に、Webサイトの文字コードを確認し、適切な文字コードでデータを保存するようにしましょう。

重複データの処理

スクレイピングを行う際に、重複したデータが収集されることがあります。重複データは、分析結果に悪影響を与える可能性があるため、削除する必要があります。Pythonのset型を使うと、簡単に重複データを削除できます。

いかがでしたでしょうか? スクレイピングは奥が深く、色々な課題に直面することもあるかもしれませんが、諦めずに挑戦することで、必ずデータ活用の幅が広がります。一緒に頑張りましょうね!

スクレイピング注意点

Webスクレイピング、便利ですよね!私もAI開発の現場で、データ収集のために日々お世話になっています。でも、ちょっと待ってください!スクレイピングは、一歩間違えると大変なことになりかねないんです。今回は、私が実際に経験した失敗談も交えながら、スクレイピングの注意点についてお話しますね。

スクレイピングのマナーと法律

スクレイピングは、Webサイトから情報を取得する行為ですが、無断で行うのはNGです。Webサイトには、利用規約やrobots.txtというファイルがあり、スクレイピングに関するルールが記載されています。

robots.txtの確認

robots.txtは、Webサイトのルートディレクトリに置かれているファイルで、クローラー(スクレイピングツール)に対して、アクセスを許可するページと禁止するページを指示するものです。必ず確認しましょう。

アクセス頻度とサーバー負荷

Webサイトに過度なアクセスをすると、サーバーに負荷がかかり、サイトの運営に支障をきたす可能性があります。短時間に大量のアクセスをするのは避け、間隔を空けてアクセスするようにしましょう。

スクレイピングで避けるべき行為

過去に、私が担当したプロジェクトで、目的のデータをどうしても取得したくて、robots.txtを無視してスクレイピングを実行してしまったことがあります。その結果、Webサイトの運営会社から警告を受け、プロジェクトは一時中断。本当に反省しました。

個人情報の取得

Webサイトには、個人情報が含まれている場合があります。氏名、住所、電話番号、メールアドレスなどの個人情報を取得することは、個人情報保護法に違反する可能性があります。絶対にやめましょう。

著作権侵害

Webサイトに掲載されている文章、画像、動画などのコンテンツには、著作権があります。著作権者の許可なく、これらのコンテンツを複製、転載、配布することは、著作権侵害にあたります。注意が必要ですね。

効率化のヒント

スクレイピング、もっと効率的に行いたいですよね?私も日々試行錯誤しています。今回は、私が実践している効率化のヒントをいくつかご紹介します。皆さんのスクレイピング作業が、少しでも楽になれば嬉しいです!

効率的なスクレイピングのためのツール選定

スクレイピングツールは、用途に合わせて選ぶことが重要です。簡単なデータの収集には、BeautifulSoupなどのライブラリが便利ですが、複雑なWebサイトのスクレイピングには、Scrapyなどのフレームワークがおすすめです。

BeautifulSoupの活用

BeautifulSoupは、HTMLやXMLを解析するためのライブラリです。HTMLの構造を解析し、必要な情報を簡単に抽出することができます。

Scrapyの活用

Scrapyは、Webスクレイピングのためのフレームワークです。クローラーの作成、データ抽出、データ処理などを効率的に行うことができます。

スクレイピングの高速化テクニック

スクレイピングの速度は、データの収集効率に大きく影響します。

並列処理の導入

複数のURLを同時にスクレイピングすることで、処理時間を大幅に短縮することができます。Pythonのmultiprocessingモジュールやthreadingモジュールを活用してみましょう。

キャッシュの利用

一度取得したデータは、キャッシュに保存しておき、次回以降はキャッシュからデータを取得することで、Webサイトへのアクセス回数を減らすことができます。

ワンポイント

はいよー、今日も一日終わったー! 最近マジでWordPress触り倒してるんだけど、色々あってマジ卍って感じ(笑)。

具体的に言うとね、Webスクレイピングでゴニョゴニョして、WordPressに自動でコンテンツぶち込みたいっていう野望があるわけよ。Pythonちゃん大先生に頼りまくってるんだけど、これがまた一筋縄じゃいかないのよねー。

Beautiful SoupとかRequestsとか駆使して、ターゲットサイトから情報引っ張ってくるまではヨシ!なんだけど、WordPressのAPI叩いて記事投稿する段階で毎回ハマる。パーミッションとか認証とか、マジ勘弁って感じ。

でもね、諦めないのがアタシの取り柄!ググりまくって、Stack Overflow先生に教えてもらって、なんとかかんとか乗り越えてる日々。

それにしても、Webスクレイピングって奥深いよね。robots.txtとか意識しないと、速攻でサイト運営者に怒られちゃうし。倫理的な問題も絡んでくるから、慎重に進めなきゃだよね。

まあ、そんなこんなで、今日もPythonとWordPressに翻弄された一日でした。明日も頑張るぞー! おー!

ブログ自動化ってどうやるの?

初心者にも優しい設定ページ

\メール登録で限定情報へアクセス/

Pabblyを使って、WordPressの自動投稿を実現!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

CAPTCHA


目次