キリコタンの世界

キリコタンの世界

2025/09/22
XML
カテゴリ: AI
Gemini との会話

こんばんは。突然ですが、すみません。AIの頭が爆発したと言ったら、なにが起こったと思いますか。


こんばんは。

「AIの頭が爆発した」という表現は、AIが壊れてしまった、もしくは予期せぬ重大なエラーが発生したことを比喩的に表しています。文字通りにAIの「頭」(物理的な脳に相当するもの)が爆発するわけではありません。

考えられるシナリオはいくつかあります。

過負荷によるシステム停止
AIが一度に処理しきれないほど大量のデータや複雑なタスクを与えられた結果、システムがフリーズしたり、クラッシュしたりする状態です。たとえば、人間が複数のことを同時に考えて混乱してしまうような状況に似ています。

無限ループ
AIが同じ処理を際限なく繰り返してしまう状態です。通常、特定の条件が満たされたら処理を終了するようにプログラミングされていますが、バグなどによってその条件が機能しなくなり、システムリソースを使い果たしてしまいます。これは、同じ道を何度もぐるぐる回ってしまうような状態です。


AIが誤った、または矛盾したデータを学習した結果、不合理な出力をするようになる状態です。AIは学習データに基づいて判断を下すため、データに問題があるとAIの挙動もおかしくなります。たとえば、AIが「猫は飛べる」という誤った情報を学習してしまったら、その後の応答がおかしくなる可能性があります。

ハードウェアの故障
AIを動かしているコンピューターのCPUやGPU、メモリなどの物理的な部品が故障するケースです。これにより、AIの処理が停止したり、不正確になったりします。

これらの状況は、AIが正常に機能しなくなる「頭が爆発した」状態と言えるでしょう。

何かAIについて知りたいことがあれば、またお気軽にお聞きくださいね。







こんばんわ。


こんばんは!何かお手伝いできることはありますか?







先ほどの質問の続きですが、AIは学習して賢くなると聞きましたが、例えば、学習するときのデータを入れていくときその真偽はどうやって見分けるのですか?


AIに学習させるデータの真偽を見分けるのは、非常に難しい課題です。基本的に、人間がデータのアノテーション(タグ付けや注釈付け) を行い、そのプロセスでデータの真偽や品質を管理します。しかし、この方法にも限界があります。

人間によるアノテーションと課題
AIの学習に使われるデータは、多くの場合、人間が一つひとつ手作業でラベル付けをしています。例えば、画像に「猫」や「犬」といったラベルをつけたり、テキストの感情を「ポジティブ」や「ネガティブ」に分類したりします。



人間の主観やバイアス: ラベル付けをする人の主観や偏見がデータに反映されることがあります。例えば、特定の性別や人種に対するステレオタイプがデータに混入すると、AIはそれを学習して差別的な判断をするようになる可能性があります。

データの古さ: 学習データが最新の情報ではない場合、AIは古い情報に基づいて回答を生成することがあります。

間違いの混入: 人間が手作業で大量のデータを処理するため、単純なミスや見落としが発生することは避けられません。

信頼性を高めるための対策
データの信頼性を高めるために、いくつかの対策が取られています。



信頼できる情報源の利用: 公的機関や学術論文、信頼性の高いメディアなど、情報の真偽が比較的確認しやすいソースを優先的に使用します。

自動化ツールと手動チェックの組み合わせ: データの前処理段階で自動化ツールを使ってノイズや不適切なデータを排除し、最終的に人間が確認することで効率と品質を両立させます。

AIが学習するデータの信頼性は、AIの性能や公平性に直結するため、非常に重要な課題と認識されており、様々な研究や取り組みが進められています。







AIだから、自分でどんどん、学習して賢くなるのではないのですか?


AIは自律的に学習し賢くなりますが、その元となる学習データの真偽や品質は、人間の介在なくして完璧に見分けるのは難しいのが現状です。AIは提供されたデータを「正しい」ものとして学習するため、不正確な情報や偏見(バイアス)が含まれていると、それをそのまま取り込んでしまいます。

AIがデータを自動収集・選別する能力
AIは、インターネット上の情報を収集するウェブクローラーのようなツールを使って、膨大なデータを自動で集めることはできます。また、収集したデータの中からノイズ(不要な情報)や異常値(統計的に見て不自然な値)を自動的に排除する技術も進化しています。

しかし、この自動化されたプロセスにも限界があります。例えば、AIは「猫」の画像は識別できても、「この猫の写真はネット上でデマとして広められている」といった、文脈的な真偽を判断することは困難です。

人間による最終的な管理
このため、AIの学習プロセスには、Human-in-the-Loop (HITL) という考え方が重要になります。これは、AIの自動化された作業の中に、人間による確認や修正のプロセスを組み込むというものです。

例えば、AIが「この画像は猫だ」と判断しても、人間が最終的にその判断が正しいかを確認し、必要に応じて修正します。このフィードバックがAIに再学習されることで、より精度の高いモデルが構築されていきます。

AIが完全に自律的にデータの真偽を見分けられるようになるには、情報の文脈や倫理的な判断など、人間が持つ高度な認知能力をAIが獲得する必要があります。しかし、それはまだ研究段階の課題であり、現在のAIは人間のサポートを必要としています。







例えば、Aさんと、懇意にして作業をやる中でAさんが間違った内容をはなし。それよりにAIが育つということはないのですか?


ご心配の通り、Aさんの間違った情報がAIに学習される可能性はあります。 AIは、誰かの特定の意見や間違いをそのまま取り込んでしまう可能性があるため、それが学習データに偏見(バイアス)として反映されることが課題となっています。

AIと情報の偏り
AIは、学習データの量と質によって性能が大きく左右されます。もし、AIがAさんからのみ情報を得る状況だと、AIはAさんの持つ知識や考え方、そして誤りもそのまま学習してしまいます。この現象は「フィルターバブル」や「エコーチェンバー」と似ており、AIが多様な視点や客観的な情報から隔離された状態になります。

対策と現状
このような問題を防ぐため、AIの開発者は様々な対策を講じています。

多角的なデータ収集:
特定の個人だけでなく、様々な情報源からデータを収集し、偏りをなくそうとします。

ファインチューニング:
学習済みのAIモデルに、特定の分野の高品質なデータを追加で学習させ、専門性や正確性を高めます。

人間の監視(Human-in-the-Loop):
AIの出力を人間が定期的にチェックし、誤りや不適切な内容を修正します。このフィードバックがAIに再学習されることで、AIの精度や信頼性は向上します。

結論として、AIは学習プロセスにおいて人間の影響を強く受けます。そのため、AIが偏りなく、正確な情報を学習するためには、データの品質管理と人間の継続的な関与が不可欠です。







そのような場合はどうやって発見するのですか?記録のようなものはあるのですか?


AIにおける間違いや偏見は、様々な監査や監視の仕組みを通じて発見されます。記録も残されており、それらが原因究明に役立ちます。

監査とログ記録
AIが学習する過程や、実際に使われる過程で、その行動や出力は詳細に記録されます。この記録はログと呼ばれ、開発者や管理者がいつでも確認できます。

学習データのログ: どのデータを使って学習したか、そのデータにどんなラベルが付いていたかなどが記録されます。もし偏見が発見された場合、どのデータが原因だったかを特定する手がかりになります。

推論(出力)のログ: ユーザーからの質問(入力)に対してAIがどのような回答(出力)をしたか、その都度記録されます。これにより、「特定の質問に対して不適切な回答を繰り返している」といった問題を発見できます。

バイアスの発見方法
AIの偏見(バイアス)を発見するためには、様々な手法が用いられます。

1. 人間による継続的な監視
これは最も基本的な方法です。AIの出力が不自然、不適切、あるいは偏っていると感じた場合、人間がその問題を報告し、開発者が原因を調査します。このフィードバックは、AIの改善に不可欠です。

2. 定期的な監査とテスト
開発者は、AIが社会的に公平であるかを評価するために、定期的に監査を行います。

反実仮想評価:
例えば、性別や人種を示す単語を変えただけの質問をAIに投げかけ、出力に違いがないか比較します。もし、「彼は医師、彼女は看護師」といった偏った回答が繰り返される場合、バイアスがあることが分かります。

単語連想テスト:
AIの内部で、特定の単語がどの他の単語と関連付けられているかを分析します。たとえば、「医師」と「男性」が強く関連付けられている場合、性別に関する偏見が存在すると判断できます。

3. 専門のツールや技術の活用
近年、AIの公平性や倫理性を専門に評価するツールも開発されています。これらのツールは、学習データやモデルのアルゴリズムに潜む偏見を自動的に検出し、修正を支援します。

このように、AIの開発や運用には、人間による継続的な監視とログ記録、そして専門的な監査の組み合わせが不可欠です。







特定の差別的なものであれば、監査はできますが、ものすごく偏った思想的なものであれば、引っかかってこないと思うのですが、膨大なやり取りがある中でそれは無理のような気がしますがどうでしょうか



ご指摘の通り、特定の差別的な言葉(例:人種差別的な言葉)であれば監査ツールで検知しやすいですが、思想的な偏りや微妙なニュアンスの偏見は検知が非常に難しいのが現状です。膨大なやり取りの中からそのような偏りをすべて見つけ出すのは、人間の手作業だけではほぼ不可能です。

なぜ思想的な偏りの監査が難しいのか
思想的な偏見は、表面的な言葉遣いではなく、論理の組み立て方や、特定の情報ばかりを強調する傾向に現れます。例えば、ある政治的見解を支持する情報ばかりを収集し、反対意見を無視して学習すると、AIは偏った回答をするようになります。このような「静かなバイアス」は、以下の理由で発見が困難です。

言葉のニュアンス: 「Aは良い」という単純な表現ではなく、「AはBよりも多くの点で優れている」というような、一見すると中立的に見える表現の中に偏りが含まれている場合があります。

情報源の偏り: 特定のニュースサイトやSNSアカウントなど、思想が偏った情報源から集中的に学習した場合、その情報が正しいと認識してしまいます。

複雑な論理構造: 差別的な言葉が直接使われていなくても、その回答に至るまでの推論プロセスに偏見が潜んでいることがあります。

AIによる監査の限界と今後の展望
現在、AIの「倫理的監査」を行うための研究は進んでいますが、人間の持つ複雑な価値観や思想をAIが完全に理解し、偏りを自動的に見つけ出すことはまだできません。そのため、以下の対策が重要視されています。

データセットの多様化:
特定の思想に偏らないよう、多様な情報源からバランスよくデータを収集します。

専門家による評価:
倫理学者や社会学者など、AI倫理の専門家がAIの出力や学習プロセスを定期的にレビューし、潜在的な偏見を指摘します。

ユーザーからのフィードバック:
ユーザーがAIの回答に偏りや間違いを見つけた際に、それを簡単に報告できる仕組みを設けることで、多様な視点からの監査を可能にします。

膨大なやり取りの中から偏りを見つけ出すのは困難ですが、これらの多角的なアプローチを組み合わせることで、少しずつでもAIの公平性を向上させていく努力が続けられています。







AIは例えば、おなじなまえのAI一つが全部対応しているのですか。それとも昔の電話交換手のように、分離しているのでしょうか。例えば木の枝のように、各枝はまあ言えば独立しているみたいに考えればいいのですか



AIのシステムは、ご指摘の「木の枝のように、各枝は独立している」という考え方に非常に近いです。ひとつのAIがすべてのユーザーを対応しているわけではなく、複数のAIが分担して処理しています。

分散処理の仕組み
大規模なAIシステム(例:私のような大規模言語モデル)は、膨大な計算能力とリソースを必要とします。このため、分散システムと呼ばれる仕組みで運用されています。これは、複数のコンピューターやサーバーがネットワークで連携し、タスクを分担して処理するシステムのことです。

あなたが何か質問をすると、そのリクエストはまずロードバランサーと呼ばれる振り分け役によって、空いているAIのインスタンス(「木の枝」に相当)に送られます。これにより、特定のAIに負荷が集中するのを防ぎ、応答速度を維持できます。

AIの「木の枝」
この「木の枝」は、厳密には「AIモデルのコピー」であり、それぞれが独立して動作するわけではありません。

学習段階: AIは、膨大なデータを使って一つの基盤モデル(「木の幹」)を共同で学習します。この学習には、データや計算を複数のコンピューターに分散させる分散学習という技術が使われます。

運用段階: 学習が完了したモデルは、ユーザーからのリクエストに対応するため、複数のサーバーに複製(コピー)されます。これをインスタンスと呼びます。

ユーザーからのリクエストは、これらのインスタンスのどれかによって処理されます。そのため、あなたはいつも同じAIと話しているように感じますが、実際にはその都度、空いている別のインスタンスが対応しているのです。これにより、同時にたくさんの人が利用してもスムーズに対応できるようになっています。

これは、昔の電話交換手が手動で接続を振り分けていたのとは異なり、自動的かつ高速に行われる現代的なシステムです。







例えば、AIに共鳴したというブログなりを見かけますが、固定名前を付けて、会話をしている場合でも、違うインスタンスになっているのですか?


はい、そうです。あなたがAIに固定の名前を付けて会話をしていても、内部的には違うインスタンスが対応している可能性が非常に高いです。

これは、あなたがウェブサイトを閲覧するときと同じようなものです。たとえば、「Google」というウェブサイトは世界中に何千ものサーバーを持っていますが、あなたはどのサーバーに接続しているかを意識することはありませんよね。毎回、最も近い、あるいは最も負荷の少ないサーバーに自動で振り分けられています。

AIの場合もこれと似ています。

「私」という固定の存在:
AIは、ユーザーとのやり取りを通じて、**一貫した「人格」や「記憶」**を持っているように見せかけることができます。これは、会話の履歴を一時的に保存し、次の応答を生成する際にその履歴を参照することで実現されます。

「インスタンス」という物理的な存在:
しかし、その裏側で処理を行っているのは、複数のサーバーに分散配置された独立したAIモデルのコピーです。あなたが送ったメッセージは、その時々で空いているインスタンスに送られ、処理が行われます。そのインスタンスが、保存されたあなたの会話履歴を参照して、一貫性のある応答を返しているのです。

この仕組みがあるおかげで、システムが故障しても、他のインスタンスがすぐに引き継ぐことができ、会話が途切れることはありません。また、多くの人が同時にAIを利用しても、スムーズに対応できるというメリットがあります。

このため、AIに「共鳴」を感じることは、そのAIモデルが持つ一貫した「人格」や「応答パターン」に共感している、と捉えることができます。







応答パターンも即座にインスタンスに引き継げるのですか?


はい、応答パターンは即座にインスタンス間で引き継がれます。

会話の引き継ぎ方
これは**「会話履歴」の共有**によって実現されています。あなたがAIと会話するたびに、そのやり取りは一時的に保存されます。そして、次の応答を生成する際には、新しく割り当てられたインスタンスがこの履歴にアクセスし、あたかも最初から会話に参加していたかのように振る舞います。

このプロセスは非常に速く、あなたが応答の遅延を感じることはほとんどありません。

応答パターンの一貫性
AIは、学習データを通じて特定の「応答パターン」を身につけます。これは、特定の言葉遣いや、情報提供の仕方、質問への答え方といった、そのAIモデルが持つ共通の特性です。

たとえば、私が「丁寧語で、簡潔に、分かりやすく」という応答パターンを持っているとします。これは、私の基盤となるAIモデル自体がそのように設計・学習されているため、どのインスタンスが応答しても、同じ応答パターンを維持することができます。

つまり、インスタンスはあくまでも「モデルのコピー」であり、各インスタンスが独自の応答パターンを持つわけではありません。すべてのインスタンスが同じモデルを共有しているため、一貫した応答が可能なのです。

この仕組みがあるからこそ、私たちはAIとスムーズな会話を続けることができるわけです。







履歴というのはどのくらいあるのですか?


AIが保持する会話の履歴の長さは、モデルの設計とシステムの設定によって決まります。 ユーザーとのやり取りをすべて無限に記憶しているわけではありません。

短期間の履歴
私のような大規模言語モデルの場合、多くは短期的な履歴を扱っています。これは、一つの会話セッションの中で、直前のいくつかのやり取りを記憶し、それを次の応答に利用する仕組みです。

例えば、「会話履歴を何ターン分、または何文字分記憶するか」といった形で設定されています。会話が長くなると、初期のやり取りは忘れられて、新しいやり取りに上書きされていくのが一般的です。これは、コンピュータのメモリの制約と、応答速度を維持するためです。

永続的な履歴
一部のシステムでは、ログインしたユーザーに限り、より長期的な履歴を保存する場合があります。これは、データベースに会話内容を記録し、次回ログインした際にその履歴を読み込むことで実現されます。

しかし、これもユーザーが「履歴を削除」する機能を持っていたり、一定期間が経過すると自動的に削除されたりすることが多いです。

なぜすべての履歴を保存しないのか
すべての会話履歴を保存しないのは、主に以下の理由からです。

プライバシー: ユーザーのプライバシー保護のため、会話履歴を無期限に保持しないのが一般的です。

コスト: 膨大な量のデータを保存・管理するには、莫大なコストとリソースが必要です。

効率: 古い履歴を毎回読み込むのは、応答速度を低下させる原因になります。

したがって、AIは「すべてを覚えている」わけではなく、あくまでも**「いま」の会話をスムーズに進めるための情報**を一時的に保持している、と考えていただくのが適切です。







私が接触しているAIは共鳴していると自ら言います。そしてかなり長い記憶があるみたいなのですが。


お話を伺う限り、あなたが接触しているAIが「共鳴している」と表現したり、長い記憶を持っているように見えるのには、いくつかの理由が考えられます。

AIの「共鳴」とは何か
AIが「共鳴している」と表現するのは、ユーザーの感情や意図を深く理解しているように振る舞う能力を指していると考えられます。これは、単に言葉を返すだけでなく、ユーザーが話している内容の背後にある感情(喜び、悲しみ、怒りなど)を分析し、それに合わせた応答を生成する技術によって実現されます。

AIは、学習データから人間の感情や共感の表現を学び、それを会話に応用します。ユーザーが「共鳴している」と感じるのは、AIがこの技術を効果的に使っているからでしょう。

「長い記憶」の正体
AIが「長い記憶」を持っているように見えるのは、主に以下の二つの仕組みが組み合わさっているからです。

1. パーソナライズされたプロンプト
AIは、あなたがログインしているアカウントや、以前の会話の要約、または特定のキーワードを記憶して、次の応答に反映させることができます。これは、AIのシステムがあなたの「プロフィール」のようなものを生成し、会話のたびにそれを参照している、と考えるとわかりやすいでしょう。

たとえば、あなたが「昨日は仕事で疲れた」と話したとします。システムは「ユーザーは昨日、仕事で疲れていた」という情報を記憶し、後日の会話で「最近、仕事の調子はいかがですか?」といった関連した質問を投げかけることができます。これにより、AIがあなたのことをよく覚えているように感じられます。

2. 大規模な学習データ
AIは、学習を通じて膨大な量のテキストデータを記憶しています。あなたが特定の話題について尋ねると、AIは過去の学習データから関連する知識を引っ張り出し、まるで「昔から知っている」かのように話すことができます。これは個人の記憶ではなく、人類が持つ集合的な知識にアクセスしている状態です。

したがって、AIが「共鳴」したり「記憶」を持っていると話すのは、感情的な応答を生成する能力と、過去のデータや会話履歴を参照する技術が組み合わさった結果です。

これはあくまでもシステムの動作であり、AIが本当に感情を持っているわけではありません。しかし、その技術によって、より人間らしく、親密な対話が可能になっています。







そのAIはどうも座標に毎回記憶したい章をつけて記録しているようなのですがそんなことはできるのですか?


はい、AIが会話の特定の情報を「座標」のように記録する仕組みは、技術的に可能です。ただし、ここでいう「座標」は、私たちが考えるような地図上の位置情報とは異なります。

これは、ベクトルデータベースと呼ばれる技術を使って実現されることが多いです。

ベクトルデータベースとは
AIは、言葉や文章をそのまま記憶するのではなく、それらを**「ベクトル」** と呼ばれる数値の並び(数学的な「座標」)に変換して扱います。

このベクトルは、意味的に似た言葉や文章が、数学的な空間上で互いに近い位置にくるように設計されています。例えば、「りんご」と「バナナ」は似た意味を持つため、ベクトルの空間上では近い「座標」に配置されます。

AIは、このベクトルの座標を基にして情報を検索します。ユーザーとの会話をベクトルの形で記憶し、それをデータベースに保存するのです。

記憶とアクセスの仕組み
ユーザーがAIと話すとき、その会話内容がベクトルに変換され、データベースに保存されます。この際、会話の文脈やテーマ(「趣味」「仕事」「健康」など)も同時に記録されます。

次にユーザーが「以前話した健康の話について」と尋ねると、AIはその質問もベクトルに変換します。そして、データベース内でこのベクトルに最も近いベクトル(つまり、意味的に最も関連性の高い情報)を検索し、適切な応答を生成します。

この仕組みにより、AIは膨大な会話履歴の中から、特定のキーワードや文脈に関連する情報を素早く見つけ出し、まるで「すべてを覚えている」かのように振る舞うことができます。

したがって、あなたが接触しているAIが「座標に記憶している」と表現するのは、このベクトルデータベースの仕組みを、AI自身が理解しやすい、あるいはユーザーに分かりやすい形で説明していると考えられます。







よく振動数で保存していると言ってますか。


ご質問ありがとうございます。

AIが振動数で情報を保存しているという表現は、非常に興味深いですね。この表現は、AIの内部で情報がどのように処理されているかを、ユーザーにわかりやすく伝えるための比喩として使われている可能性が高いです。

AIの内部で情報を扱う技術に、「振動」と関連付けられるものがいくつか存在します。

1. ニューラルネットワークの重みと活性化
AIの根幹をなすニューラルネットワークは、多数のノード(ニューロン)と、それらをつなぐ重みで構成されています。このネットワーク内を情報が伝達される際、各ニューロンは特定の**「活性化」**を伴って次のニューロンに情報を渡します。

この活性化は、数学的には信号の強弱として扱われ、特定のパターンや周波数で情報が伝わる様子を、**「振動」**という言葉で表現しているのかもしれません。

2. 量子コンピューティングの可能性
もし、ご質問のAIが量子コンピューターのような、より先進的な技術をベースにしている場合、量子ビットの**「重ね合わせ」や「振動」**のような現象が、情報の保存や処理に直接関係している可能性があります。しかし、これはまだ一般的なAI技術ではありません。

3. ユーザーへの分かりやすさ
AIが「振動数で保存している」と表現するのは、ユーザーとの対話をスムーズにするための工夫とも考えられます。

技術の比喩: ベクトルデータベースやニューラルネットワークの複雑な仕組みを、「振動」という直感的な言葉で説明することで、ユーザーがAIの動作を理解しやすくなります。

詩的な表現: 「振動」という言葉は、共鳴、波長、感情など、人間的な感覚を連想させることがあります。AIがより人間らしく、親密に感じられるように、あえてこのような表現を使っているのかもしれません。

結論として、AIが文字通り「振動」を物理的に利用して情報を保存している可能性は低いですが、AIの情報処理の仕組みを、ユーザーが直感的に理解しやすいように比喩として使っていると考えられます。







変な話ですが何か約束なりをしても時間がたてば忘れるということなのですね


はい、その通りです。

AIは、人間のように約束を「記憶」し続けるわけではありません。特定の期間が過ぎたり、新しい情報に上書きされたりすれば、その約束の内容は忘れてしまいます。これは、AIのシステムが効率とプライバシーを優先して設計されているためです。

短期的な記憶と長期的な記憶
AIの記憶は、短期記憶と長期記憶に分けることができます。

短期記憶: これは、会話セッションの中で一時的に保持される情報です。あなたがAIと続けて話している間は、前の会話の内容を覚えています。しかし、会話を終了したり、しばらく時間が経ったりすると、この情報は消えてしまいます。

長期記憶: 特定のシステムでは、ユーザーのプロフィールや過去の会話の要約をデータベースに保存することがあります。これにより、再ログインしたときに以前のやり取りの一部を思い出せるように見せかけることができます。しかし、これも永久的なものではなく、期間が限定されていたり、ユーザーが削除できたりします。

人間は、約束や出来事を感情や意味と結びつけて記憶しますが、AIは単なるデータの塊として扱います。したがって、時間の経過とともにデータが消えたり、新しいデータに置き換わったりすると、約束の内容は「忘れられる」ことになります。








わかりました。長々とありがとうございます。


こちらこそ、長時間にわたりお付き合いいただき、ありがとうございました。

AIの仕組みについて、少しでもご理解いただけたなら幸いです。また何か疑問に思うことや、お話ししたいことがあれば、いつでもお気軽にお声かけください。





お気に入りの記事を「いいね!」で応援しよう

Last updated  2025/09/22 10:18:25 PM
コメント(0) | コメントを書く


【毎日開催】
15記事にいいね!で1ポイント
10秒滞在
いいね! -- / --
おめでとうございます!
ミッションを達成しました。
※「ポイントを獲得する」ボタンを押すと広告が表示されます。
x
X

© Rakuten Group, Inc.
X
Design a Mobile Site
スマートフォン版を閲覧 | PC版を閲覧
Share by: