Google BardとChatGPT 実際に使って徹底比較してみた

今回は、BardとChatGPTの違いをまとめていきます。
Bardが得意とするユースケースで、
本当に優れているのか比較・検証していきますので、
ぜひ最後までご覧くださいっ!
また、お時間がない方は、目次からまとめをクリック!
ぱっと概要を理解できるようにしています!
比較するAIとユースケース
今回、比較するチャットボットは以下3つです。
- ChatGPT(GPT-3.5)
- ChatGPT(GPT-4)
- Google Bard
Google Bard は、以下を含む多言語のデータを組み合わせて学習しています。
- 高品質のウェブ文書
- 書籍
- Wikipedia
- 会話
- GitHub
そのため、Google 公式が発表している主な使用例(ユースケース)は以下4つです。
- リサーチ
- プログラム生成
- デバッグ
- 多言語の翻訳
では、その使用例をもとに比較・検証をしていきましょう!
リサーチ
G7サミットについて聞いてみた
今回は、2023年5月19日から21日に行われた「G7サミット」のことを聞いてみました。
プロンプトは以下です。
広島のG7サミットについて教えてください。ただし、比較対象は以下です。
- Bard
- ChatGPT(WebBrowsing プラグインを利用)
ChatGPT(GPT-3.5)は、プラグインを使えないので除外しています。
結果
どちらも間違ったことは出力してなさそうです。
Bard:

ChatGPT(WebBrowsing with Bing を利用) :

ポイント
結果の出力が速いのはBard。
サクサク調べたい場合は、Bardがおすすめですね。
ChatGPTは、出力までに時間がかかる印象です。
プログラム生成
まずは、次のようなプロンプトを入力して、プログラムを書いてもらいます。
フィボナッチ数列を作るプログラムを書いてください結果
それぞれの回答は、以下のようになりました。
Bard:

ChatGPT(GPT-4):

プログラムをGoogle Colabで実行してみると、問題なく動きました。
数列の始まり(0 or 1)の定義が厳密になされてないですが、許容範囲でしょう。

ポイント
簡単なプログラムならChatGPT、Bardのどちらでも良さそうです。
同じ挙動をするプログラムをそれぞれで作り比較したら、
ハルシネーション(AIが嘘をつく)対策として有用ですね。
プログラムのデバッグ
少し情報の古い記事のプログラムが期待どおりに動かなかったため、どのようにすると動くのか試してみます。

次のようなことを試します。
- プログラムの理解
- 期待値の確認
- エラー原因の示唆
プログラムの理解
次のプロンプトで、作りたいプログラムについて理解してもらいます。
必要なファイル名と、そのファイルに書くプログラムについて伝えています。
プロンプトは、以下です。
ファイル名とプログラムを入力しました。
まずは、以下から、プログラムについて理解してください。
#input:
次に、「app.yaml」というファイルを作成してください
runtime: python37
handlers:
- url: /.*
secure: always
script: auto
automatic_scaling:
min_idle_instances: automatic
max_idle_instances: 1
min_pending_latency: 3000ms
max_pending_latency: automatic
次に、「appengine_config.py」というPythonファイルを作成してください
import vendor
vendor.add('lib')
(略)
}結果
それぞれ、次のようになりました。
ChatGPT(GPT-3.5):
問題なく理解しています。

ChatGPT(GPT-4) :
問題なく理解してくれています。

Bard:
問題なく理解してくれています。

プログラムの挙動を想像してもらう
プログラムを正しく理解しているか確認するため、期待値を聞いてみます。
感情分析のボットなので、それにまつわるプロンプトにしています。
プロンプトは、以下です。
「嬉しいです」と入力すると、どのようなレスポンスが返ってくることが想像できますか?チャットボットは、ポジティブな感情には高得点をつけます。
ですので
「嬉しい」と入力すると、
「80点、問題ない。」
などと高得点をつけた返答があるはずです。
AIは、プログラムの期待値を理解してくれているのでしょうか?
結果
ChatGPT(GPT-3.5):
問題なさそうです。
ChatGPT(GPT-4) :
問題なさそうです。

Bard:
問題なさそうです。

期待通りに動かない原因を考えてもらう
AIは、プログラムを理解しているようです。
現状は、
「ありがとうございます!お役に立てて嬉しいです。またいつでも話しかけてください。」
とボットから返答があります。
これは期待値とは違うので、以下のようにプロンプトを入力して考えてもらいます。
ありがとうございます!お役に立てて嬉しいです。またいつでも話しかけてください。
とレスポンスが返ってくるのはなぜでしょうか?結果
ChatGPT(GPT-3.5) :
赤枠部分が事実とは違います。

ChatGPT(GPT-4):
「作ったプログラムのデプロイができてないのでは?」とアドバイスをくれました。

GoogleBard:
全く関係ないことを言ってきた。

ポイント
このタスクで一番使えるのは、ChatGPT(GPT-4)という印象。
無料で使えるChatGPT(GPT-3.5)、Bardでもそこそこは使える。
ただ、
Bardは特に短期記憶が弱いように思えるので、
会話を何度も必要とするデバッグには向かないような気がします。
また、GPT-3.5は平気で嘘をついてきました。
鵜呑みにせず、必ず実行して検証しましょう。
翻訳力
韓国語と中国語に翻訳してもらった
翻訳した文章はこちらです。
「学生時代に私はフランス語を学びました。
美しい言語であり、文化にも深く根付いています。」
翻訳結果が正しいのかは、DeepLを使って確かめます。
結果
ChatGPT(GPT-3.5):
どちらもDeepLに入力して、問題なかったです。

ChatGPT(GPT-4):
どちらもDeepLに入力して、問題なかったです。

Bard:
それぞれ、このような結果が出力されました。
韓国語は問題ありませんでした。


中国語は微妙でした。
「深い文化遺産を持つ美しい言語」となってしまった……。

ポイント
翻訳は、ChatGPTが強い印象。
Google Bardは、
公式でも多言語翻訳を推していたので意外でした。
強いと言われている理由としては、
Bardの学習データに、
100以上の人語などを使っているから。
Bardはまだ試験運用中ということもあり、今後に期待ですね。
まとめ
検証した結果、以下のようになりました。
料金も踏まえて検討してみてください。
項目 | ChatGPT(GPT-3.5) | ChatGPT(GPT-4) | Google Bard |
リサーチ | − | 〇 | ◎ |
コード生成 | 〇 | ◎ | 〇 |
| デバッグ | 〇 | 〇 | 〇 |
翻訳 | 〇 | 〇 | 〇 |
料金 | 無料 | 月額20ドル | 無料 |
最後に
今回は、Google BardとChatGPTを比較・検証しました!
参考になりましたでしょうか?
気になった方はGoogle BardとChatGPTの活用記事もありますので、あわせてご覧ください!


以上、株式会社SaaSis AIエバンジェリストLeonでした。
また、SaaSisでは、全体最適の視点でシステム提案から検証、導入、連携までワンストップで支援いたします。
「“ChatGPT × 社内データ“のAIチャットボットを作りたい」
「ChatGPTを使って、社内業務をどのように効率化できるか知りたい」
などChatGPT関連のご相談も承っております。
お気軽にご連絡くださいっ!

Leon Kobayashi
必ずフォローすべきAIエバンジェリスト(自称)
=> 元東証一部上場ITコンサル
(拙者、早口オタク過ぎて性に合わず退社)<-イマココ
【好きなもの】官能小説・リコリコ・しゃぶ葉
宜しくおねがいします。

Leon Kobayashi
自称: 必ずフォローすべきAIエバンジェリスト
=>元東証一部上場ITコンサル
(拙者、早口オタク過ぎて性に合わず退社)<-イマココ
【好きなもの】
官能小説・リコリコ・しゃぶ葉
宜しくおねがいします。

Leon Kobayashi
必ずフォローすべきAIエバンジェリスト(自称)
=>元東証一部上場ITコンサル
(拙者、早口オタク過ぎて性に合わず退社)<-イマココ
【好きなもの】
官能小説・リコリコ・しゃぶ葉
宜しくおねがいします。
\ご覧いただきありがとうございます!/
チャットボット開発等のPoC開発
承っております!

- “ChatGPT × 社内データ“のAIチャットボットを作りたい方
- 自社の業務にジェネレーティブAIを適用したい方

Recruit
現在、生成系AI事業急成長のため
積極的に人材採用を行なっています
ChatGPT講演会承っております!

