AIで生成した音声によるロボコールは「違法」--米FCC

Gael Fashingbauer Cooper (CNET News) 翻訳校正: 佐藤卓 吉武稔夫 (ガリレオ)2024年02月13日 11時16分

 米国では1月に、Joe Biden大統領になりすまし、ニューハンプシャー州での予備選で投票しないよう呼びかけるロボコール(営業活動などに使われる自動音声電話)が、民主党支持者の元に相次いでかかってきた。これを受け、米連邦通信委員会(FCC)は、人工知能(AI)で生成された音声を使った電話を違法とする裁定を下した。これにより、各州はこのような電話をかけた人物を捜査できるようになる。この裁定は即日有効となった。

電話機の周りにロボットの玩具が5つ置かれた様子
提供:James Martin/CNET

 ニューハンプシャー州の司法長官は米国時間2月6日、Biden大統領の偽音声によるロボコールはテキサス州にある企業が発信したものだと述べ、犯罪捜査を開始したことを明らかにした。

 OpenAIの「ChatGPT」が2022年に公開されて以来、AIが持つ能力はたびたび話題となっている。中でも、有名人や政治家などの声を模倣できる能力は注目を集めているが、これはそういった人物に似せた声がさまざまな形で悪用されているからだ。2023年には、「Ghostwriter977」と名乗るTikTokユーザーが、人気アーティストのDrakeとThe Weekndを真似たAI音声を利用して「Heart on My Sleeve」という曲を創作し、論争を引き起こした。また、グラミー賞歌手のTaylor Swiftさんに似た音声と姿の人物がAIで作成され、Le Creusetのキッチンウェアを宣伝しているような動画が出回ったが、同社も本物のSwiftさんもこの件に関与していなかった。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画特集

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]