2024年 4月 27日 (土)

「ChatGPT」超えた?マイクロソフト新検索サービス  AIで過去にお騒がせも

「AIは間違いを起こす可能性があります」

   新しいBingに関するQ&Aページでは、「AIは間違いを起こす可能性があります」とマイクロソフトは説明している。不完全、不適切な応答があり得るというわけだ。Bingの回答を参考にして意思決定や行動を起こす前に、ユーザー自ら情報の判断や事実確認をするように呼びかけている。

   実際、過去に不適切な応答をしてしまったAIが、冒頭でも触れたTayだ。2016年3月23日にツイッターやメッセージアプリ「kik」、「GroupMe」上で公開され、ユーザーと文章でのやり取りができた。人と話すほどに性能が向上するAIとの触れ込みだった。ところが運用を開始してすぐに、Tayは人種差別的な投稿を行うようになり、24日にマイクロソフトによって機能を停止された。

   米メディア「WIRED」(日本語電子版)2016年3月30日付記事によれば、Tayには、他のユーザーから発信された内容を繰り返す機能があった。悪意を持った英語圏のネットユーザーによってこの機能が悪用され、他者を攻撃する投稿を行うようになったという。

姉妹サイト

注目情報

PR
追悼
J-CASTニュースをフォローして
最新情報をチェック
電子書籍 フジ三太郎とサトウサンペイ 好評発売中
カス丸

ジェイキャストのマスコットキャラクター

情報を活かす・問題を解き明かす・読者を動かすの3つの「かす」が由来。企業のPRやニュースの取材・編集を行っている。出張取材依頼、大歓迎!