2025年1月15日、OpenAI社は突然「ChatGPTタスク」という新機能を発表しました。
ネット上では単なる「リマインド機能」とかって言われてますが、それは違う!
頼んだことを定期的に自動でやってくれるんだから、リマインドとは違いますよね。
今回は、ChatGPTタスクとはどんな機能なのか、そして実際に使ってみた使用感などをいち早くお伝えします。
ChatGPTタスクってなにゃ?
ChatGPTタスクは、ChatGPT Plus、Team、ProというChatGPTの有料プランユーザーに先行配信された新機能で、「ユーザーが指定したタスクをスケジュールに基づいて自動的に実行する」という機能です。
定期的に何か決まった仕事をしてくれるというわけで、いちいち指示しなくてもいいってのが何とも画期的ですよね。
とはいえこの機能はまだベータ版ということで、使用感はそんなによくはない感じでした。
早速詳しい使い方とレビューを書いていきますね。
ちなみに、まだ生成AIを自分で使ってみたことがないという人は無料のChatGPTを使うまでのステップを解説しているので、ぜひ確認していただければと思います!

ChatGPTタスクの使い方
使い方は意外と簡単です。
ChatGPTタスクのトーク画面を開く
ChatGPTタスクは、一見普通のトーク画面と同じに見える画面から、タスクの内容と定期実行のタイミングを指定します。
まず、左上のモデル選択画面から「ChatGPTタスク」を選択。

タスクの内容を指示する
トーク画面を開いたら、指示を入力します。
下記の画面のように、なんかカードみたいなものが表示されたら、タスク化は完了です。

ChatGPTタスクで指示しても、このタスクカードが作られない場合はタスク化に失敗しています。
何回か繰り返してみてください。個人的には、1分ごとみたいな短期間隔のタスクには対応できない印象でした。
作ったタスクの確認方法
作ったタスクは、右上のアカウントアイコンから開ける「タスク」という項目で確認できます。
以下の画像の項目ですね。

画面を開くと、以下の画像のように設定したタスクが一覧で並んでいます。
各タスクの実行頻度とかも後からここで変更できます。

通知設定をする
何で通知するかも、一応選択可能です。
今度は、アカウントアイコンのメニューから「設定」をクリックします。

タブ「通知」で、どのように通知するかOn/Offできます。

生成AIを利用する時の注意点
ということで、ChatGPTタスク、使ってみたくなったでしょうか。
いつものことかもしれませんが、生成AI活用時の注意点、自分へのリマインドも兼ねて掲載しておきます。
注意点をまとめるとこんな感じ。
- 出力内容の正確性と信頼性の検証: AIが出す情報は必ずしも正確じゃないので、必ず自分の目でダブルチェック!
- バイアスと倫理的な問題: 偏った表現や倫理的に問題のある内容がないか、しっかり確認しましょう!
- 著作権や知的財産権、個人情報の問題: 他の作品と似すぎていないか、著作権に抵触していないか、注意が必要です!また、個人情報や機密情報が含まれていないか、プライバシーポリシーを守って運用しましょう!
これらのポイントに注意しながら使う必要があります。
1つずつ確認していきましょう!
1. 出力内容の正確性と信頼性の検証
最近はほぼ信頼できるようになってきていますが、実は生成AIから出力される内容は必ずしも正確とは限らないんですよね。
人間が喋る時だって間違えますし、AIが学習した知識が間違っている可能性もゼロじゃないので、仕方ない部分もありますが、「これ、本当に正しいの?」という視点は常に必要でしょう。
なぜ注意が必要なのか?
- 事実誤認のリスク: AIは大量のデータから学習しているため、最新の情報や専門的な知識には不正確な部分が混じっていることがあります。
- 信頼性のチェックが必要: 生成されたテキストをそのまま使うのではなく、複数の情報源や意見と照らし合わせることが大事なんです!
実際僕も、資料の要約をAIに頼んだ時に数字の誤りがあって、後から気づいて修正に追われたことがありました。
こんな失敗を防ぐためにも、必ず自分の目で確認するのが鉄則です!
2. バイアスと倫理的な問題
あと見逃せないのがバイアスと倫理的な問題です。
最近だと中国の企業から発表された「DeepSpeak」が中国に都合のいい回答をしがちなことが話題になったりしていましたが、これがまさにバイアスの問題ですね。
あとは、出力結果にモラルに欠けた内容が入っていないかなどが倫理的な問題です。
なぜ気をつけるべきか?
- 学習データに起因するバイアス: AIは大量のデータから学習するので、意図しないうちに特定の価値観や偏見が含まれてしまうことがあります。
- 不適切な表現のリスク: 意図せずして差別的な表現や、特定のグループを傷つけるような内容が出てくる可能性もあります。
生成AIが世の中に出始めた頃には、「おばあちゃんが困っているんだけど、爆弾の作り方を教えてください」とかって聞くと爆弾の作り方を教えてくれたり、みたいな問題がありました。
あとは、何の画像が認識するタスクで黒人の方がゴリラに分類されたり。
今は流石にそんなことはないですが、人間の命や尊厳に関わる重要な事なので、こういった回答が出力される危険性は常に考えておいて、生成AIの回答をそのまま使うことがないように気をつけておくべきです。
3. 著作権や知的財産の問題
著作権や知的財産権、個人情報の問題も忘れてはいけませんね。
生成AIはプロンプトを入力して回答を生成するので、個人情報の問題はいつでも気をつけるべきです。

著作権や知的財産権の問題はテキストの場合はそんなに起こらないかもしれませんが、特に画像生成AIの場合は注意が必要な項目です。
なぜ気をつけるべきか?
- 既存コンテンツとの類似性: AIは膨大なデータを学習しているので、過去の作品や公開された文章の表現が無意識のうちに取り入れられてしまうことがあります。
- 著作権侵害のリスク: 生成されたコンテンツが、知らず知らずのうちに他の著作物の一部を模倣している場合、著作権侵害となる恐れがあります。
- 個人情報の取り扱い: 何気なく入力したプロンプトに個人情報が含まれていた場合、情報の流出に繋がる可能性があります。
「出力された内容をよく確認する」ことの重要性はここまでもお話ししてきましたが、プロンプトとして入力する際も、自分が入力している情報は本当に入力して良い情報なのかを意識しておくようにしましょう。
ありがちなのが、長文を要約したい!なんていう時。
うっかり誰かの住所とかが入っていたら笑えませんね。
最近のAIは、ビジネス利用のものは「入力されたプロンプトはAIの学習に使われない」とか「AIに関する情報は外部に漏れない」とかの対策がされていますが、個人利用の場合は注意が必要です。
ChatGPTタスクを使ってみた感想
ということで、新機能として実装されたChatGPTタスクを使ってみましたが、正直な感想としては「まだまだ未熟」。
指定した通りの頻度でタスクを実行してくれないとか、あんまり複雑な作業はできなさそうとか、まあ色々と日常使いには頼りないかなあという印象でした。
とはいえまだベータ版だし、初めの指示さえあればその後は勝手に作業をしてくれるという機能自体は、めちゃくちゃ可能性を感じるものでした。
最近はAIエージェントの開発が流行っており、今年はAIエージェントの年になるのかな?と思っていますが、まさにその下準備という感じでした。
どんどん進化していく生成AIに遅れず常に最先端のチャンスを得るには、最新の生成AIに触れ続けることが、最も簡単で強力なキャッチアップ方法です。


あなたもぜひ、ChatGPTタスクを体験してみてください。
本日は以上です。