作者:林姵妏
2023上半年最熱門話題莫過於各種AI機器人的出現,這股浪潮襲來,出現了許多有趣又厲害的應用,而在AI背後的資安議題也值得被重視,究竟有哪些是需要注意的隱憂呢?
這次由大映科技公司的總經理-劉得民老師,來跟大家分享AI常見的資安問題, 讓我們借助AI的智慧,同時又能安全有效益。
使用AI產生惡意程式碼
劉老師提到,現階段使用AI工具,並不會讓AI完整從無到有的產出,而是請AI幫忙產出我們手上專案中的其中一小段指令或語法,藉以協助讓專案更加完整,然而這中間便會出現使用AI的智慧,產出惡意程式碼的問題。
近來像是 GitHub 的 Copilot、OpenAI 的 ChatGPT等,越來越受開發者倚重的人工智慧程式碼開發輔助工具如雨後春筍般出現,因此吸引許多駭客把攻擊目標轉移過來,使用各種手法,偷偷將多種惡意程式碼植入以 AI 輔助工具進行深度學習的模型中,而這就可能導致大規模程度的被駭入攻擊。
洩漏機密資料給AI
以熱門的ChatGPT為例,隨著它的應用率越來越高,在它上面上傳各種資料的數量也就越來越多,根據數據分析公司統整,光是一天之內,每10萬名員工就平均給ChatGPT發送了5267次企業數據,且其中有11%是敏感數據,員工的無心之舉,都有可能導致公司機密被洩漏出去,實為一大需注意的風險;加上前陣子三星引入ChatGPT卻導致晶片機密資料外流的事件,有越來越多企業,甚至像義大利,都已宣布禁用ChatGPT。
雖然目前仍無法預測生成式 AI對企業的實質損害,但隨著越來越多禁用的聲浪,可見其後果可能將會損失慘重,也同時代表未來市場對 AI資安的重視程度只會更高。
使用AI的注意事項
劉老師提醒,AI固然有其隱憂存在,但使用得當的話,依舊會是我們的最佳助手,分別提到了以下幾點:
- 監督謬誤:AI的回答並費正確答案,仍舊需要透過人工的優化與修正。
- 無法回收與機敏過濾:資料輸入給ChatGPT後是無法收回的,企業應當先過濾資料內容,確認是否有不適流出的機密資料。
- 用途分類:可自行訓練AI機器模型,用以區分企業外部/內部網站、客戶服務網站等。
結語
生成式AI能提升人類的生產效率,雖然仍有許多潛在問題需克服,但不可否認的是,未來市場對其重視程度只會越來越高,堅持不用的人或許將難以競爭,大家目前有使用過哪些AI機器人來幫助日常作業呢?歡迎跟v編分享交流哦!