2023-04-17

Prompt Injection: 提示詞注入的潛在風險

如果有二個人的對話是透過第三者來傳話,那會不會及要不要讓這對話的二端吵起來,就完全要看中間這個傳話者的良心了,阿舍沒想到這樣的狗血情節不只在人類身上會發生,同時,也會發生在和 AI 應用服務的對話上,不過,我們人類應該是不需要和對話那頭 的AI 吵架才是,所以,是不是就沒有什麼可以需要擔心的吧! 

我們都是好人,阿舍也是這樣想,但是,有沒有想過,中間的那個第三者如果不小心不是好人!就會發生提示詞注入(Prompt injection) 的可能了... 😱


Stable Diffusion 繪製


怎麼會有第三者 ?

像阿舍之前介紹過 AutoGPT 這樣的工具及後續會推出整合到 ChatGPT 的 ChatGTP Plug-in 之類的工具,以及接下來會陸續出現與各種 GPT API 整合的 AI 應用服務,都是會幫忙把阿舍輸入的提示詞轉送給 ChatGPT 或 GPT API,然後,再把 ChatGPT/GPT API 回覆的內容傳回給阿舍看,在一般的情況,阿舍不會特別去驗證中間來回的提示詞和回覆是否有被 "調整" 過,也就是看看有沒有被提示詞注入(Prompt injection) 的情況發生,因此,惡意的第三方工具就有機會可以來搗蛋了,有沒有一點點的可怕? 不過,是有嚴重到能夠造成什麼傷害嗎 ?

提示詞注入怎麼運作

如果阿舍透過工具請 GPT API 翻譯一段阿舍完全不知道是在講什麼的俄文文字,然後,它回應說系統故障了,要阿舍按個連接回報 (提示詞注入要求送出錯誤的回應),雖然,阿舍是不太會去亂按連結,但是,這樣的做法是滿有說服力的,一不小心,還是有可以能去按那個有問題的連結,另外,如果在傳回的翻譯結果中,故意做了些置入或修改(提示詞注入要求加入額外的資訊),這樣的方式,阿舍應該就真的很難會發現有什麼不對的地方了,因為,對原文完全沒概念,對翻譯出來的結果,只能以為是沒問題的。

會造成什麼可能的傷害 ?

想想看,如果阿舍今天用的是 AI 程式碼產生器服務被要求加入高級且不明顯的惡意程式碼或操作指令的話,有可能發生什麼事? 又或是阿舍使用的 AI 自動化服務被提示詞注入 (Prompt injection) 要求加入一段看來是說明文字但實際上是指令的語句,有可能發生什麼事? 以目前語言 AI 的 "智慧" 而言,要產出上述要求的的回覆內容,並不是太困難的事。

不過,還好現在因為 AI 串接的服務數量和被使用的普及度還不算太多,可能造成的問題還沒有太明顯,但是,未來 AI 的應用服務會越來越普及,而且,也會透過層層的串接來完成更多的自動化工作,爾後中間過程要有人類介入的可能性將會越來越難 (不然,幹嘛要用 AI),所以,上述的情況一定會發生,而且,已經發生在某些新興的 AI 服務上了。

結語: 如何防範未然

AI 的應用還太新,未來的發展也還在摸索中,而整個產業的規範和管理都還沒有太清楚的方向,就如同網際網路興起之初的種種亂象一樣,需要時間消化與處理及各國政府的介入規範與管理,但是,在那之前,阿舍建議可以透過下列幾種簡單的方式來降低提示詞注入風險 (無法完全避免!! )。 

  • 選用有信用和風評佳的 AI 服務商
  • 優先選擇有提供交談日誌的服務,以便抽查與保護自己
  • 對於使用 API Key 串接的服務要多加確認它的運作方式
  • 注意 API 的使用量和被使用時間是否符合自己的操作行為

AI 應用和工具仍然是強大和有效率的,好好應用可以為自己和公司帶來很好的結果,所以,也千萬別因為太擔心提示詞注入風險就不用 AI 服務和工具,阿舍寫這一篇是想讓朋友們注意到這項議題而能多加注意的,不是要嚇唬人的 ... 🤭 

如果各朋友對這個提示詞注入(Prompt injection) 的議題有興趣深入瞭解,請參考這裡這裡有更多的說明與討論。


推薦閱讀


有疑問? 問題還是沒解決嗎? 歡迎下方留言提問和討論 😁

沒有留言 :

張貼留言

歡迎留言提問和討論 .... 😁