AI時代 深偽色情影像威脅擴大
廣告
在人工智能時代,深度偽造色情內容的風險日益增加。律師Carrie Goldberg指出,只需人類形象即可成為受害者。人工智能工具現已能將人臉疊加至裸體上,或修改現有照片使人看似未穿衣服。
受害範圍廣泛
過去一年中,從著名女性如Taylor Swift和眾議員Alexandria Ocasio-Cortez到高中女生,均成為AI生成的非自願色情影像的目標。Goldberg表示,發現自己或子女成為深度偽造色情的對象,通常會感到恐懼和不知所措。
自我保護步驟
Goldberg建議,受害者首先應截圖這些影像作為證據。然後,他們可以尋求Google、Meta和Snapchat等平台提供的表格來要求移除這些圖片。非營利組織如StopNCII.org和Take It Down也可協助在多個平台上同時移除這些圖片,儘管並非所有網站都與這些組織合作。