日本経済新聞社のインスタグラム(nikkei) - 9月13日 10時00分
人工知能(AI)で人間の声を合成する「ディープフェイクボイス」を悪用した詐欺への懸念が米国など海外で高まっています。想定されるのは人工の声で親族らになりすまし金銭をだまし取る手口。3〜4秒間の音声データがあれば高い精度で合成できるとされ、日本でも被害の恐れがあります。専門家は検知技術の向上といった対策の必要性を指摘します。
詳細はプロフィールの linkin.bio/nikkei をタップ。
投稿一覧からコンテンツをご覧になれます。→@日本経済新聞社
#日経電子版 #AI #ディープフェイクボイス
[BIHAKUEN]UVシールド(UVShield)
>> 飲む日焼け止め!「UVシールド」を購入する
117
2
2023/9/13