Geminiの「正しい使い方」
― AIが壊れる前に、こちらから手を打て ―
AIを使っていて、こんな経験はありませんか。
-
さっきまで話が通じていたのに、急におかしな返答をし始める
-
文脈を忘れる
-
指示の前提が消える
-
まるで「記憶喪失」になったような挙動
これ、AIがバカになったわけではありません。
単純に「会話の記憶容量(コンテキスト)」が限界に近づいているだけです。
AIは「無限に覚えている」わけではない
多くの人が誤解していますが、
AIの会話には必ず上限があります。
この上限を超えるとどうなるか。
-
古い情報から順に削られる
-
重要な前提条件も容赦なく消える
-
結果、話が噛み合わなくなる
人間で言えば、
「徹夜3日目で仕事してる状態」
そりゃミスります。
ChatGPTとGeminiの決定的な違い
ここで重要なのが、
ChatGPTとGeminiの設計思想の違いです。
ChatGPTの場合
-
コンテキスト残量はユーザーに見えない
-
残量を正確に計算・通知する仕組みがない
-
「そろそろ危ない」という自己申告も不可
-
パーソナライズ設定が存在しない
つまり
👉 気づいたときには手遅れ
これが、
ChatGPTで「長時間の共同開発(バイブコーディング)」が
やりづらい理由です。
Geminiの場合
ここが面白いところ。
Geminiは「事前にルールを仕込める」。
パーソナライズ設定に、
こんな指示を入れておくことができます。
これだけで、
AIが壊れる前に逃げ道を作れます。
メッセージ内容は好みでOK
警告メッセージの文言は、
自分好みに変えて問題ありません。
-
フランクでもOK
-
ちょい煽りでもOK
-
ユーモアありでもOK
ただし当然ですが
命令口調・モラハラ・セクハラ系はNGです(笑)
AI相手でも、そこは人として。
なぜ「3割」だと通らないのか?
ここ、地味に重要なポイントです。
実は、
❌「会話の記憶容量が3割」
⭕「会話の記憶容量が30%」
この違いで、
Geminiが指示を理解しなくなります。
理由はシンプル。
-
「3割」 → 曖昧表現
-
「30%」 → 数値として明確
Geminiは、
基準が曖昧な指示を嫌います。
%指定だと通る。
日本語なのに、日本語が負ける。
変な話ですが、事実です。
なぜChatGPTでは真似できないのか
よく聞かれます。
「ChatGPTでも同じことできないの?」
結論から言います。
無理です。
-
正確な残量計算機能がない
-
ユーザー側からフックを仕込めない
-
パーソナライズ設定が存在しない
そのため、
ChatGPTは「気合と勘」で使うしかありません。
短いやり取りなら問題ない。
でも、
-
長期プロジェクト
-
ソースコード大量生成
-
設計を積み上げる作業
これには致命的です。
バイブコーディングはGemini向き
現時点での実感ベースの話をすると、
-
ChatGPT → 小回り・短距離走
-
Gemini → 長距離・持久戦
特にGeminiでは、
ソース100MB規模まで実用的に扱えています。
これは
-
コンテキストが広い
-
管理しやすい
-
ユーザーが主導権を持てる
という設計のおかげです。
まとめ(かなり重要)
AIを「賢く使う」というのは、
AIに丸投げすることではありません。
壊れる前に、こちらが制御する。
そのために、
-
コンテキスト残量を意識する
-
警告ルールを事前に仕込む
-
危なくなったらスレを切り替える
これをやるだけで、
AIの安定性は段違いに上がります。
「AIが最近おかしい」
そう感じたら、
まず疑うべきは自分の使い方です。
Geminiは、
それを正面から補助できる数少ないAIです。
――使いこなす側に回りましょう。