在人工智慧(AI)技術高速發展的2025年,數位化浪潮正重塑社會的每個角落。為提升學生應對網路風險的能力與AI素養,我司近日於樂善堂梁銶琚學校舉辦專題講座,聚焦上網安全隱患、資訊真偽辨識、個人私隱保護及人工智慧倫理四大核心議題,吸引逾百名師生參與。以下為講座重點摘要:
一、上網安全隱患:從網路詐騙到AI犯罪
講座首先剖析當前網路威脅的複雜性。根據世界經濟論壇(WEF)報告,2025年全球網路犯罪損失已突破1.5兆美元,且攻擊手法因AI技術加持更趨精密。例如:
- AI生成釣魚程式碼:詐騙集團利用生成式AI快速產出惡意程式,甚至透過「AI投毒攻擊」汙染正規工具如ChatGPT,導致用戶在不知情下執行惡意指令。
- 深度偽造(Deepfake)濫用:駭客偽造名人影像與聲音,透過社交工程騙取信任。例如香港曾發生企業因視訊會議遭Deepfake詐騙損失2,500萬美元。
講者強調,學生應養成「查證再行動」的習慣,並善用防毒軟體與雙重驗證機制,降低風險。
二、資訊真偽莫辨:從假新聞到AI幻覺
AI技術雖提升資訊產製效率,卻也加劇虛假內容的傳播。例如:
- 社交媒體的假訊息陷阱:詐騙集團收購高可信度帳號,發布深偽影片誤導投資決策。如偽造馬斯克(Elon Musk)推薦加密貨幣的影片。
- AI幻覺(AI Hallucination):生成式AI可能因訓練資料偏差或技術限制,產出看似合理但錯誤的內容。
對此,講者提出三大辨識原則:
- 多方比對來源:透過官方網站或權威媒體驗證。
- 警惕情緒化標題:假訊息常以聳動標題吸引點擊。
- 善用AI檢測工具:如Meta AI推出的深偽辨識平台。
三、個人私隱保護:從數據洩露到AI監控
在AI驅動的數據經濟時代,個人資料已成「新石油」。講座揭露常見風險:
- 應用程式過度索權:部分APP要求存取通訊錄、定位等非必要權限,導致個資外流。
- AI模型訓練的隱患:用戶上傳的對話、照片可能被用於訓練商業模型,加劇隱私風險。
講者建議學生採取以下措施:
- 最小化分享原則:避免在社群平台公開敏感資訊(如身分證號碼)。
- 定期更新密碼:使用密碼管理器生成複雜密碼,並啟用雙因素驗證。
- 閱讀隱私條款:了解APP如何收集與使用數據,必要時關閉個性化推薦功能。
四、人工智慧素養:從工具使用到倫理反思
AI不僅是技術工具,更涉及社會責任與倫理抉擇。講座提出三大素養框架:
- 技術理解:掌握AI基礎原理,如機器學習與演算法偏見。
- 批判思考:反思AI應用場景的合理性。例如課堂是否應全面引入AI批改作業?
- 創新實踐:透過跨學科專題(如結合自然語言處理分析文學作品),培養解決真實問題的能力。
講者亦引用北京師範大學余勝泉教授的觀點,強調「學用結合」的重要性——唯有將AI技術融入生活情境(如校園OCR作業系統),才能深化學生的應用能力與倫理意識。
結語:擁抱AI時代的公民責任
本次講座不僅剖析風險,更呼籲學生以「數位公民」身份主動參與AI治理。樂善堂梁銶琚學校師生透過問答環節,進一步探討AI教育與課程設計的未來方向,展現對議題的深刻關注。
在AI與人類共生的時代,唯有持續學習、保持批判思考,方能駕馭技術浪潮,而非被其淹沒。
如果你們的學校或機構也想邀請我們來舉辦工作坊、講座及相關活動,歡迎跟我們聯絡:info@campusaibot.com | 852-3480-7273。