OpenAI 、待望のGPT-5モデルが発表された。その名もOpenAI o1。
o1-previewとo1-miniバージョンについてもっと知りたい方は、こちらのo1モデルの概要をご覧ください。
GPT-5とは?
OpenAI o1は、OpenAI 、2024年9月12日に発表された大型言語モデルの最新シリーズで、現在はo1-previewとo1-miniの2モデルで構成されている。
o1と同社の従来モデルとの最大の違いは、その思考連鎖推論にある。まだ完全にはリリースされていないが、プレビュー版とミニモデルは、数学、科学、コーディングのテストにおいて、すでにGPT-4oを圧倒している。
この新しいモデルは、(人間のように)リアルタイムで推論できる、この種のものとしては初めてのものだ。
その推論能力は、ユーザーにとってどのような意味を持つのだろうか?「ある上級アクセス権を持つCEOは、「本当に良い。
GPT-5の発売日はいつですか?
OpenAIの最新版LLM が2024年9月12日に公開された。このリリースにはo1-previewとo1-miniモデルが含まれている。
リリースまでの予測は多岐にわたり、ユーザーもジャーナリストも、早ければ2024年夏、遅ければ2026年と見積もっていた。
GPT-5はどの程度賢いのか?
OpenAI は、o1の推理能力を示すSTEMベンチマークのリストを宣伝している:
- 物理学、化学、生物学のベンチマークテストにおいて、博士課程の学生と同等の成績。
- 米国数学オリンピックの米国予選で上位500人に入る。
- 競争力のあるコーディング・テスト、Codeforcesで89パーセンタイルにランクイン。
o1の推理能力については、OpenAI の研究リリースをご覧いただきたい。
プロジェクト・ストロベリー
OpenAI o1は以前、コードネーム「ストロベリー(Strawberry)」と呼ばれていた。「ストロベリーがどのように機能するかは、OpenAI でも厳重に秘密にされている」と匿名の情報筋がロイターに語った。
この新しいAIの小型バージョンは、ChatGPT のアップデートの一部として2024年9月12日に発表された。大型バージョンは、OpenAI が、LLMs の学習データを生成するために使用されると思われ、現実世界の膨大なデータの必要性に取って代わる可能性がある。
7月9日の社内ミーティング( OpenAI )では、プロジェクト・ストロベリーなるもののデモが行われ、人間のような推論能力を示すと主張された。
GPT-4 とGPT-5 の違いは?
OpenAI サム・アルトマンCEOは、世界はまだAIの表面をなぞったに過ぎないと考えている。2024年1月の世界政府サミットで、アルトマンはOpenAI 、現在のモデルを携帯電話の初期と比較した:
フリップフォン版GPT からiPhone版になるには時間がかかるだろうが、o1モデルはそれに一歩近づいた。
1) 推理力の強化
その一般知能の中心にあるのが、o1の新しい推論能力である。「おそらく最も重要な進歩の分野は推論能力でしょう」とアルトマンはゲイツに語った。「今のところ、GPT-4は極めて限定された方法でしか推論できません」。
推論をするのは難しい。人間にとっても。そして、OpenAI o1はそれを主張する最初のモデルである。
RedditやMediumには、GPT-4の失敗を投稿するユーザーが後を絶たない。問題解決に関する集団的な批評から、推論能力の限界に関する正式な説明まで。
2) 新しい命名規則
その名前は、新しいOpenAI LLM 、最もエキサイティングなことではないが、意図的に意味のある変更である。
OpenAI o1は、「GPT 」という名称を捨てた最初のモデルである。これは、同社が全く新しい「推論パラダイム」の第一段階であると主張しているためで、旧モデルは「プレトレーニングパラダイム」の一部であった。
新しいモデルは、事前学習データに頼るのではなく、リアルタイムで推論に時間を費やす。
3) 待ち時間が長い
リアルタイムで推論を行うには、トレーニングデータを参照して回答を生成するよりも時間がかかる。他のモデルと比較して、OpenAI o1-previewに質問をすると、かなり待たされることになる。
しかし、推論をアウトソーシングできるのだから、安いものだ。o1モデルのスピードは、シリーズの次のモデルがリリースされるにつれて向上していくだろう。
4) 同じコンテキストウィンドウ
GPT-4 から次期モデルへのコンテンツウィンドウの増加を予想する声も多かったが、現行のo1シリーズは、GPT-4oのコンテンツウィンドウ128,000と同一である。
コンテキスト・ウィンドウは、モデルが一度に処理できるトークン(単語やサブワード)の数を表す。コンテキスト・ウィンドウが大きいほど、モデルは入力テキストからより多くの情報を吸収することができ、より正確な解答を導くことができる。
GPT-4 の欠点の一つは、大量のテキストを処理する能力が比較的限られていることである。例えば、GPT-4 TurboとGPT-4oのコンテキストウィンドウは128,000トークンである。しかし、GoogleのGeminiモデルは最大100万トークンのコンテキストウィンドウを持つ。
今現在、大量の情報を吸収できる大規模な言語モデルだけが心配なら、OpenAI LLMs は最良の選択ではないかもしれません。どのLLM チャットボットが自分に合っているか気になる方は、 LLM のベストチャットボットについての記事をご覧ください。
GPT-5 はどのようなトレーニングデータを使用していますか?
OpenAI 、業界のトップに上り詰めた同社に何らかの清算があったとすれば、それはモデルの完全なトレーニングに関する一連の訴訟だ。
GPT モデルは、インターネットから取得された膨大なデータセット(その多くは著作権で保護されている)でトレーニングされている。ニューヨーク・タイムズ』紙からの訴訟、一連の米通信社からの訴訟、モデルのトレーニング過程がEUの一般データ保護規則に違反しているという主張などである。
有名人のサラ・シルヴァーマンやタ・ネヒシ・コーツを含む作家グループが起こした著作権訴訟(OpenAI )のひとつは、カリフォルニア州の判事がすでに却下している。OpenAI 、同社がテストを続ける中で、これらの訴えによって実質的に足かせになるという示唆はまだない。
最新のモデルは、一般に公開されているデータと企業から購入したデータの組み合わせでトレーニングされている。OpenAI 、より良いモデルをトレーニングするために、より多様なデータセットを募集した。
また、o1はモデルをさらに訓練するためのデータセットを作成するために使用された可能性が高い。OpenAI 、ストロベリーは将来のLLMs を訓練するために使用されると説明した。
GPT-5の価格は?
新しいOpenAI o1モデルは、ChatGPT 、無料で使用できるが、当面は厳しい制限がある。
APIを利用する場合、OpenAI o1-previewモデルは、100万インプットトークンあたり15ドル、100万アウトプットトークンあたり60ドルかかる。
o1-miniモデルは、入力トークン100万個あたり3ドル、出力トークン100万個あたり12ドルで、日常的な使用にははるかに利用しやすいモデルとなっている。
しかし、これらのモデルは、OpenAI'の以前のオプションよりも高価である。GPT-4oモデルの価格は、100万入力トークンあたり5ドル、100万出力トークンあたり15ドルである。GPT-4o miniの価格は、100万入力トークンあたり0.150ドル、100万出力トークンあたり0.6ドルである。
リリース前の見識OpenAI
o1(旧名:ストロベリー、Q*)の発売を前に、OpenAI の幹部や内部関係者は次世代モデルに関する情報を次々と小出しにしている。以下は、同社が発売前に述べたことの軌跡である:
- OpenAI 日本のCEOは、2024年の発売予定と、新製品とアップル、スポティファイ、コカ・コーラとの提携を発表した。
- サム・アルトマン最高経営責任者(CEO)は、次期モデルは電子メールやカレンダーの詳細を処理できるようになり、よりカスタマイズできるようになると主張した。
- ミラ・ムラーティCTOはダートマス工科大学のインタビューで、GPT-3は幼児の知能を持ち、GPT-4は賢い高校生に近く、OpenAI o1は(特定のタスクにおいて)博士号レベルの知能を持つと説明した。
- マイクロソフトのAI最高経営責任者(CEO)であるムスタファ・スレイマンは、モデルが斬新な環境で「行動を起こす」ことができるようになるのは、2年後のGPT-6になってからだと語った。
- 慎重さが第一サム・アルトマン最高経営責任者(CEO)は、o1モデルの発売日について慎重な姿勢を示し、OpenAI 、「最初にリリースすべき重要なものが他にたくさんある」と説明した。同社は、安全かつ責任を持って行えるという確信が持てた場合にのみ、このモデルをリリースすると述べた。
- アルトマンはスタンフォード大学のインタビューで、「GPT-5 は、GPT-4 に比べて "軽い恥ずかしさ "に思えるだろう」とジョークを飛ばした。
- 米国AI安全研究所は、両組織が「AI評価の科学を推し進める」ことができるよう、OpenAI の次期モデルへの早期アクセスを受けた。
- 拡張されたデータセットを持つことになる。GPT OpenAI は、モデルをよりよく訓練するために、より多様なデータセットを募集している。
の未来ChatGPT
次世代の大規模言語モデルは、日常生活におけるAIとの関わり方に革命をもたらすだろう。ブルームバーグのテック・カンファレンスで、OpenAI COOのブラッド・ライトキャップは、GPT をLLM からエージェントのような能力を持つモデルへと進化させ、人間とコンピューターの対話に革命を起こす計画であることを示唆した。
「2026年にプロンプトエンジニアというものが存在するのだろうか?ライトキャップは言った。「友人を即座にエンジニアにすることはない。
よりマルチモーダルな機能を備えた、より有能でパーソナライズされたモデルは、アルトマンとOpenAI が期待するもの、すなわち想像を絶するものを約束してくれる。予想されるGPT-5 に一歩近づくだろう。
カスタマイズ性の向上
GPT-4は多くの場合、画一的なツールとして使われている。しかし、将来的にはよりパーソナライズされたものになるだろう。ゲイツのポッドキャストで、アルトマンは、カスタマイズとパーソナライズが将来のOpenAI モデルの鍵になると繰り返した。「GPT-4 に求めるものは人それぞれで、スタイルも違えば、前提条件も違う。
OpenAI はすでにカスタムGPTs を導入しており、ボードゲームの指導から子供の宿題の手伝いまで、ユーザーが特定のタスクに合わせてGPT をパーソナライズできるようになっている。OpenAI o1ではカスタマイズは最前線ではなかったが、今後は大きなトレンドになると予想される。
その間に、GPT-4oのパワーを備えたAIチャットボットを無料でパーソナライズすることができます。私たちの得意とするところです。まずはこちらから。
マルチモーダル
マルチモダリティは、過去数回のGPT 。OpenAI 、その勢いが衰える気配はない。
OpenAI は2024年5月にGPT-4oを発表し、テキスト、音声、視覚の能力を向上させた。GPT-4ターボとは一線を画し、自然な会話、画像入力の分析、ビジュアルの説明、複雑な音声処理が可能だ。
マルチモダリティの変化は、私たちの関わり方に大きな変化をもたらすGPT 。自然な会話の流れ(モデルが音調の変化を正確に解釈し、GPT-4oのような人間のような発話パターンに従うことができるとき)は、AIの自然言語処理における大きな飛躍である。
OpenAI 、近日発売予定のテキスト・トゥ・ビデオ・モデル「Sora」を恥ずかしげもなく紹介している。このAIモデルは、複雑なカメラの動きを模倣し、最大60秒のクリップで詳細なキャラクターや風景を作成するために開発された。
マルチモダリティの歴史だけでは物足りないなら、OpenAI のCEOから聞いてみよう。アルトマンはゲイツに、推論とともにビデオ処理も将来のGPT モデルの最優先事項であることを確認した。
パワー・オブ・GPT, カスタマイズ
もしあなたのAIチャットボットが、GPT のアップデートのたびに自動的に同期するとしたらどうだろう?
Botpress は、2017年以来、カスタマイズ可能なAIチャットボットソリューションを提供しており、開発者が最新のLLMs のパワーでチャットボットを簡単に構築するために必要なツールを提供しています。Botpress チャットボットは、ウェブサイトや製品カタログのようなカスタムナレッジソースで学習させることができ、ビジネスシステムとシームレスに統合することができます。
コードのセットアップが不要で、無限のカスタマイズと拡張が可能な唯一のプラットフォーム、Botpress は、あなたのチャットボットに自動的に最新のGPT バージョンのパワーを提供します。
今日から始めよう。無料です。