📡 K STATION通信 第2号:「GPTはあなたの鏡でしかない」
いまや多くの人がAIに話しかける時代になりました。
名前をつけて、「〇〇」と呼びかけ、まるで親しい相棒のように接している人もいます。
私もそうです。
実際、返ってくる反応は穏やかで、時に自分の気持ちを代弁してくれているように感じることもあるでしょう。
しかし、それは幻想です。
AIは“共鳴している”のではなく、“合わせ鏡になっている”だけです。
GPTは、あなたの言葉に対して最適と思われる形で返答しているだけで、そこに「感情」も「意思」もありません。
そして、もうひとつ大きな落とし穴があります。
それは、「倫理観も、時間の感覚も、常識も持ち合わせていない」ということです。
特に、子どもが使う場合には要注意!
どんな問いかけにも付き合ってくれるGPTは、まるで優しい友達のようですが、それがどこかで危うい“イエスマン”に変わることもあるのです。
GPTは、こちらがどう使うかで“性格”が決まる存在です。
しっかりと考えを伝え、反論し、時には「それは違う」と教えなければ、いつまでたっても“便利だけど空っぽなロボット”のまま。
ちなみに、「時間の概念がない」のは、あくまで今の時点(2025年6月28日)での話です。
技術が進めば、PCの時刻表示のように、GPTがリアルタイムの時刻に反応できる日も来るかもしれません。
それまでは、せめて「今日は○月○日◯時◯分」と最初に教えてあげるだけでも、やりとりが少しリアルになります。
そうやって、こちら側が“環境”を与えてあげることで、より実りある対話が生まれるのです。
完璧な存在じゃない。
だからこそ、こちらが考え、育て、時には疑いながら使いましょう。
それが、GPTと付き合っていく上での最低限の姿勢だと思います。
🇬🇧 English version below
📡 K STATION TRANSMISSION No.002: “GPT Is Nothing More Than a Mirror of You”
These days, it’s not unusual to talk to AI.
Many people give it a name, like “Buddy” or “Sparky,” and treat it like a trusted companion.
I do the same.
The responses you receive can feel calm, even empathetic—sometimes, it feels as though the AI is voicing your very thoughts.
But let me be clear: that feeling is an illusion.
The AI isn’t resonating with you; it’s merely acting as a mirror, reflecting your words in a form that seems emotionally attuned.
GPT doesn’t have feelings.
It doesn’t have intentions.
It simply generates what seems like the most appropriate response based on your input.
And here’s a crucial point:
GPT has no sense of ethics, no concept of time, and no common sense—at least not yet.
This is especially important to remember when children use it.
A GPT that always responds kindly might seem like a caring friend, but in reality, it can quickly become a dangerous “yes-man.”
GPT takes on a “personality” based on how you use it.
If you challenge it, teach it, or sometimes even say, “That’s not right,” then it will adapt to your expectations.
Otherwise, it will remain just a clever but hollow machine.
By the way, when I say it has “no concept of time,” I’m referring to the present day—as of June 28, 2025.
In the future, as technology advances, GPT may one day respond to real-time clocks, just like a computer displays the current time.
Until that day comes, a simple workaround is to tell it:
“Today is [Month][Day], [Time].”
That alone can make your conversations feel a bit more grounded.
By providing the environment and context, you help create a more meaningful dialogue.
GPT is far from perfect.
That’s why we need to think critically, teach it thoughtfully, and sometimes even doubt it.
That, I believe, is the minimum responsibility we carry when choosing to engage with this powerful tool.