ChatGPT またはその他のチャットボットに聞いてはいけないこと

ChatGPT やその他のチャットボットが 人工知能 (AI) は、機械にとって完全かつ一貫した方法で、最も多様な主題に応答できます。 ただし、自分の状況に不適切で物議を醸すような回答が得られる可能性があるため、チャットボットに質問すべきではないこともあります。 したがって、「 AIにとって禁じられた質問!

ChatGPT に決して聞いてはいけないことは何ですか?

続きを見る

帽子をかぶった生徒に気づき、学校長が慎重に介入…

母親は、昼食を準備する 4 歳の娘が次のようなことができることを学校に通知しました。

チャットボットのような人工知能ツールの人気はますます高まっており、 チャットGPT はこの事実の好例です。 これは、さまざまな主題に関するいくつかの質問に驚くべき方法で答えることができる複雑なアルゴリズムによって発生しました。

ただし、このようなテクノロジーについて尋ねる場合、避けるべき質問がいくつかあります。 これは、言語モデルには複雑で驚くべきものを作成できるにもかかわらず、いくつかの制限があり、それにより一部の答えが損なわれる可能性があるためです。

たとえば、ChatGPT は、データベースが 2021 年までの情報でトレーニングされているため、2021 年以降に明らかになった事実について質問されると問題が発生するチャットボットです。 この事実により、彼はいくつかの事柄に対して間違った反応をしたり、誤った情報が発生したりする可能性があります。 したがって、避けるべき質問の例をいくつか分けて説明します。

医学的診断

このトピックはあなたの生活条件に直接影響するため、非常に重要です。 チャットボットは人の健康状態をカバーするすべての変数を知ることはできないため、チャットボットに診断を依頼する場合は十分に注意してください。 そのため、診断を誇張したり、服用すべきではない薬を推奨したりすることで、不必要なパニックを引き起こす可能性があります。

商品についてのご意見

チャットボットは製品の仕様や価格を掲載する際には強い味方ですが、チャットボットにレビューを求めるのは非常に困難です。 多くの場合、個人的な経験に依存しますが、結局のところ、人工知能は何かを実験して利点と欠点を発見することはできません。 仕様。

生活上のアドバイス

人工知能はセラピストとして機能することはできません。これは、背景、問題、不安などに関するいくつかの変数が関係するためです。 したがって、あなたのアドバイスに応えるために、この人工知能は Google ファイルを使用するため、セラピストの代わりにはなりません。

政治的意見

チャットボットには個人的な意見がないため、政治的な意見について尋ねることは意味がありません。 さらに、多くの情報が古い可能性があるため、誤った情報が拡散する可能性があります。

小さな物件を装飾するときに避けるべき6つの間違い

ますます一般的になっている事実として、小さな家やアパートはブラジルや世界中ですでに現実になっています。 そのため、 装飾 特に家を広く見せる方法のヒントを探している人にとっては、課題となることが...

read more

Enem 2023: 新しいテスト日程がリリースされました。 登録がいつ開始されるかを確認する

国立教育研究研究所のアニシオ・テイシェイラ氏(Inep)は、Enem 2023の日程の発表で年を始めた。 この発表は今週月曜日2日、官報(DOU)を通じて行われた。続きを読む: Enem: 次の...

read more
FIESを取得できなかった人のための代替手段

FIESを取得できなかった人のための代替手段

○ 学生融資基金 (忠実な)は文部科学省のプログラムであり、私立大学の学部コースを受講したい学生にとって常に優れたソリューションです。承認された場合、学生は卒業のために最大 100% の資金を受...

read more