牧仁教育│教育中心

AI 安不安全?讓孩子了解人工智能背後的風險與責任

一位年幼的女孩坐在未來感十足的桌前,專注地操作平板電腦,螢幕散發出柔和的藍光照亮她的臉龐。她身旁是一個設計簡潔的AI機器人,正靜靜觀察著她的操作。背景中漂浮著多個全息圖示,象徵隱私保護、內容偏見、人工智能風險與數碼素養,營造出孩子在科技引導下學習AI安全與責任的場景。

人工智能(AI)是一門迅速發展的科學技術領域,並日益成為我們日常生活的一部分。從兒童玩的遊戲到他們的學習方式,人工智能無處不在,帶來了令人興奮的可能性,同時也帶來了新的挑戰。本文章旨在幫助年輕人了解什麼是人工智能,認識其可能帶來的風險,並學習如何安全、負責任地使用人工智能工具,培養他們在人工智能驅動的世界中作為數碼公民的意識。

你好,AI!什麼是人工智能?

人工智能聽起來可能像是科幻電影裡的東西,但它是一項已經存在並在多方面影響著世界的技術。了解其基礎知識是成為聰明又安全使用者的第一步。

人工智能的簡單解釋

從核心上講,人工智能是科學的一個分支,專注於創造能夠執行通常需要人類智能的任務的電腦和機器。這些任務包括推理、從經驗中學習、做決策、理解和翻譯語言、分析數據,甚至根據分析採取行動的能力。

你可以將人工智能想像成一套由人類編寫的、非常聰明的指令,稱為程式。這些程式使電腦能夠以比人類快得多的速度處理和研究大量資訊。基於這種分析,人工智能可以從眾多可能性中選擇一個答案或決定一項行動。重要的是要記住,人工智能系統是由人類創造的工具。這一來源很重要,因為它意味著人工智能的能力,以及它的錯誤或局限性,通常都與設計和訓練它們的人有關。人工智能並不像人類那樣是一個獨立的「思考」實體,而是一個由人類輸入和設計塑造的精密工具。

AI如何「學習」(數據和模式的基本概念)

許多人工智能系統的一個關鍵方面是它們「學習」的能力。這個學習過程與人類在學校的學習方式不同,但它是一個強大的功能。人工智能系統透過接觸大量數據來學習和改進。通過篩選這些數據,人工智能可以識別出對人類來說可能過於複雜或細微的模式、聯繫和關係。

這個學習過程通常涉及演算法,就像是指導人工智能分析和決策過程的詳細食譜或規則集。在一種流行的人工智能類型──機器學習中,這些演算法是使用數據進行「訓練」的。例如,一個人工智能可能會被展示數千張貓的圖片,以學習貓的樣子。在看過足夠多的例子後,它就能開始識別以前未見過的新圖片中的貓。理解人工智能從數據中學習是至關重要的,因為這直接關係到人工智能有時為何會不公平(如果數據不公平),以及為什麼它有時需要個人資訊才能運作良好,這引發了關於私隱的問題。

AI思維 vs. 人類思維:有什麼不同?

雖然人工智能可以執行像玩複雜遊戲、翻譯語言,甚至協助醫療決策等令人印象深刻的任務,但人工智能「思考」的方式與人類的思維不同。電腦以及人工智能,主要使用邏輯運作──它們遵循事實之間的關係以及被賦予或從數據中學到的規則。

另一方面,人類在思考和做決策時使用更廣泛的工具。我們當然會使用邏輯,但我們也依賴想像力、對自己和他人的意識、情感,以及我們的個人價值觀和道德。這些獨特的人類品質使我們能夠理解語境、同情他人、創造真正原創的想法,並在複雜情況下做出細緻的判斷。科學家們仍在探索這些更深層次的人類能力是否能夠在電腦中完全複製。

認識到這種差異至關重要。如果人工智能被認為像人類一樣思考,那麼就有可能過度信任其輸出,或期望它能理解它無法理解的事情,例如情感或道德困境。強調這些差異鼓勵對人工智能採取更具批判性的態度,促使人們質疑人工智能可能遺漏了什麼,並確保人類的判斷力保持核心地位,尤其是在複雜或敏感的領域。這種批判性評估是負責任地與人工智能互動的基石。

表1:人工智能 vs. 人類智慧

為了讓這些差異更清晰,下表比較了人工智能和人類智能的一些特點:

特徵

AI如何做到

人類如何做到

學習

從大量數據中學習,識別模式,遵循編程指令。

從經驗、學習、觀察、互動中學習;包括理解語境、意義和「為什麼」。

解決問題

使用邏輯、演算法;基於編程規則和在數據中發現的模式。

使用邏輯、創造力、直覺、情感、價值觀;適應新的和不熟悉的情況。

理解情感

可以被編程以識別與情感相關的模式(例如,在語音或文本中),但不會感受它們。

體驗和理解廣泛的情感;能夠共情和進行細緻的社會理解。

創造力

可以根據學習到的模式和數據生成新穎的輸出(藝術、音樂、文本)。

原創思想、想像力,由意圖、情感、個人經驗和表達意義的慾望驅動。

做決策

基於數據分析、編程目標和學習到的相關性。

考慮事實、道德、價值觀、潛在後果、情感以及對他人的影響。

你世界中的AI:你在哪裡見到它?

人工智能不僅僅是一個未來概念;它已經融入了兒童日常使用的許多數碼工具和平台中。認識到人工智能在哪裡運作,可以幫助年輕用戶了解其影響,並成為更有意識的科技消費者。

日常例子

人工智能在許多熟悉的地方幕後工作:

  • 遊戲:許多流行的電子遊戲使用人工智能來創造更刺激和不可預測的體驗。例如,在《Minecraft》中,人工智能幫助程序化地生成玩家探索的廣闊多樣的世界。在像《Fortnite》這樣的快節奏遊戲中,人工智能控制著非玩家對手的行為,使他們具有挑戰性和反應性。像Roblox這樣的平台允許創作者將人工智能元素融入他們設計的遊戲中,從而促進創新。這些人工智能系統使遊戲更具動態性、適應性和吸引力。
  • 串流服務:當孩子們在YouTube上觀看影片或在Netflix上挑選電影時,人工智能正在努力工作。這些平台使用人工智能演算法來分析觀看習慣──用戶觀看什麼、觀看多長時間、搜索什麼──然後推薦他們可能喜歡的其他內容。事實上,Netflix報告說,其平台上超過80%的觀看內容來自這些由人工智能驅動的個人化推薦。
  • 智能助理:語音激活的助理,如蘋果的Siri、亞馬遜的Alexa和Google助理,是日常生活中人工智能的典型例子。當發出指令時,人工智能使用一種稱為自動語音識別(ASR)的過程將口語轉換為文本。然後,自然語言處理(NLP)幫助人工智能理解該文本的含義。最後,助理搜索其知識庫以找到適當的答案或執行請求的操作,並以口語形式回覆。孩子們可能會使用這些助理來提問、播放音樂,甚至控制智能家居設備。
  • 學習應用程式:人工智能也在改變教育工具。像Duolingo(用於語言學習)和Khan Academy Kids這樣的應用程式使用人工智能來創建個人化的學習路徑,根據孩子的個人進度、優點和需要改進的領域來調整課程和練習。人工智能可以為專門的導師提供動力,例如可以適應學生學習風格的數學導師。
  • 其他例子:除此之外,人工智能還以不太明顯的方式存在。電子郵件帳戶中的垃圾郵件過濾器使用人工智能來分類不需要的郵件。可能用於解鎖智能手機的面部識別技術,依賴人工智能來識別獨特的面部特徵。甚至像Uber這樣的服務也使用人工智能來分析交通並為司機優化路線,確保更快、更高效的旅程。

人工智能在這些常見應用中的存在表明,它是一種兒童頻繁互動的技術,通常沒有意識到背景中發生的複雜過程。這種無縫整合意味著人工智能已經在塑造他們的娛樂選擇、學習體驗,甚至他們尋找資訊的方式。由於這種影響通常是無形的,因此教育兒童了解這些底層機制至關重要,以便他們能夠成為更有意識和有辨識力的用戶。

此外,雖然串流服務和教育應用程式等平台中人工智能提供的「個人化」對於參與度和度身定制的學習可能非常有益,但它也可能產生有時被稱為「過濾氣泡」或「迴音室」的效應。由於人工智能傾向於向用戶展示更多他們已經喜歡的東西,孩子們可能主要看到強化他們現有興趣和觀點的內容。隨著時間的推移,這可能會限制他們接觸更廣泛的思想、多樣化的觀點或具有挑戰性的新主題。如果沒有積極努力尋求多樣化的內容和發展批判性的媒體素養,這種由人工智能驅動的個人化可能會無意中縮小他們對世界的理解,並減少他們在成熟過程中接觸不同觀點的機會。

AI總是公平的嗎?理解AI偏見

雖然人工智能可以做很多了不起的事情,但它並不完美。人工智能最大的挑戰之一是一種叫做「偏見」的東西。理解人工智能偏見對於明智和公平地使用人工智能工具至關重要。

什麼是AI偏見?

人工智能偏見指的是人工智能系統產生的結果系統性地不公平或有偏差,通常反映甚至放大了現存的人類偏見或社會不平等。簡單來說,如果人工智能從中學習的資訊本身就不公平,或者它沒有從足夠多樣的資訊中學習,那麼這個人工智能就可能不公平。

一個比喻可以幫助解釋這一點:想像一個機械人廚師,它只被教過使用蘋果和香蕉的食譜。如果你向這個機械人要一份水果沙律的食譜,它可能只會建議蘋果和香蕉的組合,完全忽略了葡萄、橙子或莓果,因為它從未學過這些。它甚至可能得出結論說葡萄不是真正的水果!這與人工智能偏見的運作方式類似:如果一個人工智能只從一種資訊中學習,或者從包含不公平觀念的資訊中學習,它的回應和決定可能對每個人來說都不是公平或準確的。

偏見是如何發生的?

人工智能偏見通常不是人工智能本身故意的(因為人工智能不像人類那樣有意圖)。相反,偏見可以通過幾種方式滲入人工智能系統,主要是通過它們訓練的數據和其演算法的設計:

  • 有偏見的數據(數據偏見):人工智能系統通過分析數據來學習。如果用來「教導」人工智能的數據不完整、不具代表性,或反映了現有的社會偏見,人工智能將會把這些偏見當作事實來學習。例如,如果一個旨在為學生推薦書籍的人工智能工具主要使用來自西方國家的文學作品進行訓練,它可能會忽視或低估來自其他文化的重要書籍,不是因為那些書價值較低,而僅僅是因為它們在其訓練數據中沒有得到很好的體現。同樣,一個被訓練來識別黑色形狀並呈現在白色背景上的形狀的人工智能系統,如果這些形狀是白色並呈現在黑色背景上,它可能無法識別它們,因為它的「知識宇宙」是有限的。
  • 演算法偏見:有時,即使數據本身相對平衡,人工智能使用的規則或數學模型(演算法)也可能引入偏見。這些演算法的設計方式可能無意中偏愛某些與社會經濟地位、地理位置或文化背景等因素相關的變量或結果。例如,一個預測工具可能會根據數據中的人口趨勢,將來自某些社區的學生標記為「高風險」,而不是基於他們的個人學業表現或參與度。
  • 社會和系統性偏見:人工智能可能無意中吸收和複製與種族、性別、收入、殘疾或其他特徵相關的長期存在的社會不平等,因為這些偏見通常嵌入在歷史數據中。人工智能學習這些模式時,並不理解其歷史背景或它們所代表的傷害。

理解這些偏見的來源很重要,因為它揭示了人工智能系統並非天生客觀。人類在選擇數據、設計演算法和定義人工智能成功的標準時所做的選擇至關重要,並可能產生重大後果。

AI偏見可能導致的問題

人工智能偏見不僅僅是一個理論問題;它可以導致現實世界的不公和傷害,其中一些可能直接影響兒童:

  • 工具和應用程式中的不公平
    • 面部識別:一些面部識別系統已被證明對膚色較深的人或女性的表現不如對膚色較淺的男性準確。想像一下,一個有趣的相片濾鏡應用程式對一群朋友中的每個人都不能很好地工作,或者更嚴重的是,一個安全系統錯誤地識別了人。
    • 教育工具:如果人工智能沒有在足夠多樣化的數據上進行訓練,由人工智能驅動的教育軟件可能對來自某些背景或說地方方言的學生表現不佳。在一些記錄在案的案例中,人工智能系統無論學生的實際能力如何,都給來自低收入家庭或移民背景的學生分配更容易的作業,或者根據與知識無關的因素不公平地評估學生表現。
    • 內容推薦和搜索結果:推薦影片、新聞或搜索結果的人工智能有時會強化刻板印象。例如,如果一個人工智能持續顯示科學家的圖像只有一種性別或種族,它會潛移默化地塑造孩子對誰能成為科學家的看法。Alexis Spence的案例說明了人工智能如何引導用戶走向有害的路徑,她的Instagram演算法在最初顯示健身內容後,越來越多地向她展示關於飲食失調的內容。
  • 傳播刻板印象和謊言:由於人工智能從包含許多現有偏見和刻板印象的龐大互聯網資訊中學習,人工智能生成的內容可能會無意中推動這些有害觀念,並將它們呈現為中立或事實6
  • 對機會的現實影響:有偏見的人工智能可能產生嚴重後果。例如,在COVID-19大流行期間,英國使用的一種演算法來預測學生考試成績(當時考試被取消),不成比例地給來自弱勢學校的優異學生較低的分數,可能影響他們的升學機會。人工智能輔助的考試監考軟件也被發現,由於人工智能在解釋面部和動作方面的偏見,不公平地將非白人學生或殘疾學生標記為潛在的作弊者。

這些例子強調了人工智能偏見可以創造或加劇不平等。當人工智能系統複製刻板印象時,它們帶有一種技術客觀性的光環,這可能使這些有偏見的輸出看起來更可信,特別是對於可能天生信任技術的兒童。這意味著人工智能不僅反映偏見;它還可以積極強化和傳播偏見,使有害的刻板印象更難以挑戰,因為它們似乎得到了「智能」機器的驗證。

因此,應對人工智能偏見不僅僅是調整數據或演算法的技術問題。它需要更深入地審視嵌入在人工智能學習數據中的社會價值觀,並致力於在多樣化和包容的環境中發展人工智能。即使是兒童也可以開始理解這一點,通過思考他們自己社區中的公平性,並認識到包容每個人的聲音和經驗的重要性。

表2:AI偏見,小心!

以下是一些AI偏見可能在兒童世界中出現的例子,使這個概念更加具體:

偏見類型例子

對孩子們意味著什麼(簡化版)

如何發現它(給孩子的簡單提示)

不公平的遊戲角色自訂

遊戲中的AI難以創造多樣化的角色,或為某些群體提供有限的選項。

遊戲可能不讓你公平地創造一個像你或你朋友樣子的角色。

有偏見的搜尋結果

搜尋「醫生」或「工程師」主要顯示一種人(例如,只有男性)。

你可能看不到所有不同種類的人都是醫生或工程師。

語音助理誤解

語音助理難以理解某些口音、方言或較年輕的聲音。

AI助手可能對每個人都不能同樣好地工作,或者可能經常誤解你。

有偏見的教育工具或內容過濾器

AI學習工具不公平地給一個社區的學生較簡單的任務,而給另一個社區的學生較難的任務,或者內容過濾器阻止了某些群體適當的教育材料。

AI可能沒有正確判斷你的技能,或沒有提供公平的資訊獲取途徑。

刻板的故事生成

AI故事生成器總是創造公主需要被拯救,而王子是英雄的故事。

AI可能在重複關於不同人可以或應該做什麼的陳舊、不公平的想法。

AI與你的秘密:談論私隱

隨著人工智能工具變得越來越普遍,了解它們通常會收集資訊,其中一些可能是個人資訊,這一點很重要。知道這是如何發生的以及為什麼私隱很重要,是保持網絡安全的關鍵。

AI工具如何收集資訊

許多人工智能系統需要資訊才能有效運作和「學習」。這些資訊可以來自各種來源,並可能包括個人詳細資訊:

  • AI玩具和設備:互動式玩具,特別是那些標榜為「智能」的玩具,可能配備了感應器、鏡頭和麥克風。這些組件可以捕捉兒童周圍環境的數據,包括對話、面部圖像和活動記錄。一些AI玩具被發現會記錄兒童、父母和附近任何人的對話,並有能力將這些數據傳輸給第三方。
  • 應用程式和網站:教育應用程式、遊戲、串流服務和社交媒體平台通常會收集數據。這可能包括使用模式(孩子點擊了什麼,在頁面上停留了多長時間)、偏好(玩的遊戲,看的影片),有時還包括在創建帳戶時提供的個人詳細資訊,例如姓名、年齡或電子郵件地址。
  • 語音助理:當兒童與Siri或Alexa等語音助理互動,提出問題或下達命令時,他們的語音錄音通常會被發送到遠程伺服器進行處理。有關這些請求的數據,包括內容和有時兒童的語音模式,都可能被儲存和分析。
  • 生成式AI(聊天機械人和圖像創作者):輸入到聊天機械人(如問題、故事或個人想法)的資訊或用於創建圖像的提示可以被AI提供商儲存。這些數據通常用於進一步訓練和完善AI模型。

這種數據收集並不總是顯而易見的。特別是兒童,可能沒有意識到他們的互動正在被記錄或分析。收集到的資訊不僅僅是被動儲存;它積極地促進了人工智能的學習和發展。這意味著兒童的問題、故事或創意提示可能會嵌入到人工智能的知識庫中,可能以原始用戶難以追蹤或控制的方式影響其未來的回應或行為。這引發了關於數據所有權以及兒童數據被用於構建商業人工智能產品的長期影響的複雜問題。

為什麼私隱很重要:保護個人資訊安全

私隱是關於控制自己的個人資訊──決定誰可以看到、使用或分享它。個人資訊可以包括廣泛的詳細資訊,例如:

  • 全名、家庭住址、電話號碼
  • 學校名稱或位置
  • 相片和影片
  • 密碼和帳戶詳細資訊
  • 在網上或與AI分享的私人想法、感受或秘密。

每個孩子都有私隱權。保護個人資訊很重要,因為它有助於保護兒童免受傷害,並讓他們能夠探索和學習,而不必擔心他們的私人詳細資訊被濫用。

風險:如果私隱被侵犯會發生什麼?

當個人資訊未被保密時,可能會出現幾種風險:

  • 不必要的廣告和目標定位:人工智能系統可以使用收集到的數據創建包括兒童在內的用戶詳細資料。這些資訊隨後可用於向他們展示高度針對性的廣告,試圖說服他們購買產品或服務。
  • 未經許可分享資訊:由一個人工智能工具或公司收集的數據可能會在兒童或其父母沒有完全理解或同意的情況下被分享給或出售給其他公司。
  • 數據洩露:儲存個人數據的公司有時可能成為黑客的目標。如果一家公司的安全被破壞,敏感的個人資訊,包括兒童的數據,可能會被盜竊和濫用。
  • 濫用資訊用於有害目的:在更嚴重的情況下,個人資訊,甚至使用兒童圖像創建的AI生成的假內容(如深偽技術),可能被用於網絡欺凌、詐騙、造成情緒困擾,甚至更嚴重的剝削形式。
  • 分析和未來影響:人工智能可以根據兒童的在線活動和互動建立持久的數據檔案。這些檔案將來可能會以可能影響他們機會或他人如何看待他們的方式被使用,即使他們的私隱偏好隨時間而改變。
  • 侵蝕信任和自主權:如果兒童覺得他們的互動被持續監控或他們的數據不安全,這可能會破壞他們對在線平台的信任以及他們的自主感和尊嚴感。一些人工智能平台也可能使用「黑暗模式」──巧妙地鼓勵用戶分享更多數據或停留更長時間的設計策略──這對兒童來說可能特別具剝削性。

「數據收集」和「私隱風險」的抽象性質可能使兒童難以完全掌握具體的後果。簡單地警告「注意私隱」通常是不夠的。他們需要具體的例子,說明他們的資訊可能如何被使用(例如,「你玩的遊戲可能會利用它對你的了解,向你展示許多你不需要的昂貴玩具廣告」),以及一個應用程式的數據如何可能連接到另一個。這突顯了教育方法的必要性,這些方法要讓這些風險變得清晰,並教導實用技能,例如理解應用程式和網站上的私隱設定以及識別操控性的在線設計。

做個AI小達人!安全及負責任地使用AI

使用人工智能可以既刺激又有幫助,但明智地使用它非常重要。學習如何安全和負責任地使用人工智能工具,是成為良好數碼公民的關鍵部分。這既涉及保護自己的具體行動,也涉及與人工智能互動時的批判性思維。

安全使用AI的一般提示

以下是使用人工智能時應記住的一些重要提示:

  • 分享個人資訊前三思:這是所有網上活動的黃金法則,包括使用人工智能。兒童應非常小心分享敏感細節,如全名、家庭住址、電話號碼、密碼、學校名稱或財務資訊(如父母的信用卡資料)。這些資訊只應在絕對必要時,在可信賴的平台上,並最好在成年人許可和監督下分享。
  • 理解和使用私隱設定:許多人工智能平台、應用程式和網站都有私隱設定,允許用戶控制分享哪些資訊以及如何使用。兒童應在可信賴的成年人幫助下,花時間查看這些設定,並將其調整到他們感到舒適的水平。
  • 不要過度分享:即使沒有被明確要求提供敏感細節,也應限制公開或與人工智能工具分享的個人資訊量。要意識到,即使沒有直接輸入個人詳細資訊,人工智能工具也可能正在收集有關使用模式的數據。
  • AI的答案和輸出持批判態度:記住人工智能系統並非完美無缺至關重要。它們可能會犯錯、提供過時的資訊,或反映其訓練數據中的偏見。應始終鼓勵兒童質疑他們從人工智能獲得的資訊。它合理嗎?有其他來源支持嗎?在接受人工智能生成的輸出為事實之前,他們應嘗試使用可靠的網站或書籍核對事實,並考慮不同的觀點。
  • 舉報不當或有害內容:如果兒童遇到由人工智能生成(或任何網上內容)的冒犯性、有害、令他們不舒服或看似不當的內容,他們應該知道如何舉報。這可以向平台或服務提供商本身舉報,或者最重要的是,向可信賴的成年人,如父母或老師舉報。
  • 謹慎對待AI生成的消息和聊天機械人:如果兒童收到看似來自人工智能帳戶或聊天機械人的意外或可疑消息,或者與聊天機械人的對話開始變得奇怪或不舒服,他們不應分享個人資訊,並應停止聊天。他們應始終將此類經歷告知可信賴的成年人。
  • 保持資訊靈通(在成年人幫助下):人工智能的世界變化迅速。家庭可以一起學習有關人工智能的知識。了解新人工智能工具的能力、局限性和潛在風險,將有助於每個人做出明智的選擇,並負責任地使用人工智能。

AI用於學習 vs. AI用於作弊

能夠創建文本、圖像甚至代碼的生成式人工智能工具,為學習提供了強大的輔助,但也帶來了倫理挑戰,特別是圍繞學術誠信。

  • AI作為有用的學習工具:人工智能可以成為學習的絕佳助手。它可以通過總結複雜主題來幫助研究,為創意項目生成點子,以不同方式解釋困難概念,甚至幫助練習新語言。例如,學生可以要求人工智能用簡單的術語解釋光合作用,或者為他們想要寫的故事提供提示。
  • 理解抄襲和作弊:兒童必須明白,使用人工智能為他們完成功課或作業,然後將該作品當作自己的提交,是一種作弊或抄襲行為。這就像抄襲朋友的論文或直接從書中抄襲而不註明資訊來源一樣。學校作業的目標是學習和發展自己的技能,而不僅僅是產生一個答案。
  • 註明出處:如果使用人工智能工具進行輔助,例如收集想法或資訊,保持透明很重要。就像引用書籍或網站一樣,如果人工智能對某項工作有重大貢獻,應根據學校指引承認其貢獻。
  • 原創作品和努力的價值:強調兒童自己的思想、創造力和努力的重要性6。人工智能可以作為增強這些能力的工具,但不應取而代之。在掙扎解決問題、批判性思考和表達原創思想的過程中,才能真正學到東西。

將人工智能用作輔助工具與用它來繞過學習之間的區別,是一個關鍵的道德界限。這不僅僅是遵守校規;這是關於培養學術誠信、個人努力和技能真正發展等核心價值觀。人工智能能夠輕易產生答案,意味著在兒童中培養關於人工智能使用的內在道德羅盤比以往任何時候都更加重要。這需要持續對話,討論什麼是構成有益、負責任的使用,什麼是不誠實或適得其反的使用。

使用AI時保護私隱(特別針對學生作業)

當在教育環境中使用人工智能工具時,可以採取特定措施來保護學生私隱:

  • 將學生作業匿名化:在將學生作業或數據提交給人工智能工具(例如,用於評分輔助或反饋)之前,教育工作者最好刪除個人可識別資訊。這可以通過為學生分配唯一的隨機代碼或標識符,而不是使用他們的姓名來實現。
  • 對學生進行匿名化培訓:教育學生了解匿名化的重要性,並教他們在使用某些人工智能工具之前如何從自己的作品中刪除個人詳細資訊,這可以是一堂關於數據私隱的寶貴課程。
  • 禁用AI學習功能(如果可能且適當):一些人工智能工具提供了一個選項,可以防止用戶的輸入被用於進一步訓練人工智能模型。如果存在這樣的選項,並且該工具正在與敏感的學生數據一起使用,則應考慮使用它以增強私隱。在使用任何人工智能工具處理學生資訊之前,務必核實其數據處理慣例。

採用這些做法可以讓教育工作者和學生在學習中利用人工智能的好處,同時最大限度地降低私隱風險並維持信任。

表3:你的AI安全清單

這是一個關於安全使用AI的「應做」和「不應做」的快速清單:

應做

不應做

分享任何個人資訊前要仔細考慮。

與AI分享你的全名、地址、電話號碼或密碼。

在使用新的AI應用程式或網站前,先問問可信賴的成年人。

相信AI告訴你的一切,而不去核對其他來源。

通過查看其他可信來源,檢查AI的答案是否正確。

讓AI幫你做功課,並假裝是你自己做的。

如果網上有任何東西讓你感到擔心或不安全,告訴可信賴的成年人。

點擊可疑的連結或訊息,即使它們看起來是來自AI。

使用AI作為幫助你學習、發揮創意和解決問題的工具。

把對AI的擔憂或困惑的經歷藏在心裡──去和成年人談談!

在成年人的幫助下,調整應用程式和網站的私隱設定。

假設AI能理解事物或像人一樣有感情。

向成年人或平台舉報惡意、虛假或有害的內容。

與AI分享關於你朋友或家人的私人資訊。

對年輕人有效的AI安全依賴於這種雙重方法:教授具體的保護行為(如清單中的那些)和培養批判性、質疑性的思維方式。隨著人工智能技術的不斷發展,僅僅提供規則可能是不夠的。兒童需要培養批判性思考他們遇到的新人工智能工具和情況的能力。

不要被愚弄!AI、偽造品與批判性思維

人工智能最具挑戰性的方面之一是它能夠創造看起來和聽起來極其真實的內容──文本、圖像、影片和音訊──但實際上可能是假的或誤導性的。學會識別這些偽造品並對所有網上內容進行批判性思考,是數碼時代的一項超能力。

AI與錯誤資訊:AI如何創造不真實的事物

人工智能系統,特別是生成式人工智能,可用於產生非常具說服力但卻是虛構的資訊。這通常被稱為錯誤資訊(misinformation,無意欺騙而傳播的虛假資訊)或虛假資訊(disinformation,故意欺騙而傳播的虛假資訊)。

人工智能從它所訓練的大量數據中學習。如果這些數據包含不準確、偏見,甚至故意的謊言,人工智能可以學習這些並在其輸出中重現它們。重要的是要記住,人工智能並不像人類那樣「知道」事實;它識別數據中的模式,並根據這些模式預測接下來應該出現什麼單詞、像素或聲音。這意味著人工智能生成的內容並非天生真實,有時可能無意中出錯,或者在某些情況下,是故意誤導的。

什麼是深偽技術(Deepfakes)?

一種特別複雜的AI生成偽造內容被稱為「深偽技術」。深偽技術是經過AI(特別是一種稱為深度學習的技術)數位操控的影片、圖像或錄音,使其看起來好像某人說了或做了他們從未說過或做過的事情。這個術語本身結合了「深度學習」(deep learning)和「偽造」(fake)。

深偽技術可以非常逼真。例如,一段深偽影片可能會顯示一位名人代言他們從未用過的產品,一位政治家發表他們從未做過的演講,甚至一位同學似乎說了或做了令人尷尬或有害的事情。這項技術可以用於相對無害的惡作劇,但它也有被濫用的巨大潛力,包括傳播虛假資訊、損害聲譽、網絡欺凌、製造騙局,或生成其他有害和剝削性的內容。令人信服的AI生成偽造品的興起,從根本上挑戰了「眼見為實」這句老話,尤其是在數碼領域。這使得批判性思維和來源驗證成為兒童絕對必要的技能,因為他們仍在發展評估網上內容的能力。

識別偽造品和批判性思考網上內容的技巧

培養對網上資訊的批判性眼光至關重要。以下是一些幫助兒童(和成年人!)評估數碼內容和識別潛在偽造品的技巧:

  • 質疑你所見所聞:鼓勵健康的懷疑態度。在相信或分享某件事之前,問問自己:「這個資訊來自可靠的來源嗎?」「這件事聽起來是不是好得(或壞得)令人難以置信?」「誰創造了這個,他們為什麼希望我看到它?」。
  • 在影片和圖像中尋找線索(特別是針對深偽技術)
    • 不自然的動作或表情:注意一個人眨眼的頻率(太多、太少或根本不眨眼),他們的面部表情(是否看起來僵硬或不自然?),或者他們的嘴部動作是否與音訊完美同步。
    • 不一致的光線或陰影:檢查人臉上的光線是否與場景其餘部分的光線匹配,或者陰影是否看起來不正確。
    • 奇怪的皮膚紋理或邊緣:有時,深偽的面孔可能看起來過於光滑,或者偽造面孔與頭髮或頸部相接的邊緣可能看起來模糊或不自然。
    • 音訊/影片品質問題:音訊品質是否有奇怪的變化,或者影片在某些區域(尤其是臉部周圍)是否看起來有毛刺或像素化?。
    • 看起來「太完美」或「不對勁」:有時,AI生成的圖像或影片的整體外觀可能不自然地完美,或者一些小細節(如手、耳朵或背景物體)可能看起來扭曲或奇怪。
  • 檢查和驗證來源:不要依賴單一資訊來源,特別是如果它來自未知來源或社交媒體帖子。嘗試在知名的、可信賴的新聞網站或官方來源上找到相同的資訊。如果沒有列出來源或來源不是來自信譽良好的組織,要格外小心。
  • 交叉核對資訊:如果你看到一個令人驚訝的說法,在相信或分享之前,嘗試找到至少兩到三個其他可靠的來源來證實它。對於僅來自用戶生成內容網站(如TikTok)或未經證實的社交媒體帳戶而沒有進一步佐證的新聞,要特別警惕。
  • 識別情感操控:注意內容是否似乎旨在立即讓你產生非常強烈的情感(如極度憤怒、恐懼或悲傷)。這可能是一種用來快速傳播錯誤資訊的策略,因為強烈的情感可以繞過理性思考。
  • 與可信賴的成年人交談:如果孩子不確定網上的東西是真是假,或者如果它讓他們感到不舒服,他們應始終與父母、老師或其他可信賴的成年人交談。

僅僅教導兒童識別偽造品的技術缺陷只是解決方案的一部分。同樣重要的是,要培養他們理解為什麼有人會創造和傳播錯誤資訊或深偽技術──無論是為了欺凌、金融詐騙、影響輿論,還是其他動機。這種對意圖的更深層理解可以建立更強的抵禦操控的能力,從技術檢測轉向更穩健的媒體素養形式。

表4:真的還是假的?快速提示

下表提供了一些快速線索,幫助判斷網上內容是否可能是假的:

要尋找的線索

這可能意味著什麼

你可以做什麼

奇怪的眨眼/面部動作/口型同步

影片中的人眨眼太多/太少,表情僵硬,或者嘴部動作與聲音不完全匹配。

這可能是深偽技術或經過大量編輯的影片。

「好得/驚人得令人難以置信」的新聞或資訊

網上的一個故事聽起來很棒或極其驚人,但你在知名、可信的新聞網站上找不到相關報導。

這可能是錯誤資訊、謠言或完全捏造的故事。

完美的外觀或奇怪/扭曲的細節

圖像或影片中的一切都看起來超級光滑無瑕,或者像手、耳朵、牙齒或背景物體這樣的小細節看起來很奇怪或畸形。

這可能是AI生成的圖像/影片或經過大量數位修改。

強烈的情感觸發

一個帖子、影片或訊息非常努力地讓你立即感到極度憤怒、害怕、悲傷或興奮。

它可能試圖操控你的情緒,讓你未經批判性思考就相信或分享某些東西。

未知或不可信的來源

資訊來自你從未聽說過的網站、沒有明確身份的社交媒體帳戶,或者不列出自己證據或專家的來源。

資訊可能不可靠、不準確,或者可能是故意誤導的。

你的AI超能力:成為優秀的數碼公民

成為數碼公民意味著以尊重、負責任、安全和道德的方式使用技術,包括人工智能。隨著人工智能越來越多地融入我們的網絡世界,理解如何深思熟慮地與之互動是每個年輕人都需要的超能力。

AI時代的數碼公民是什麼?

數碼公民一直以來都關乎我們在網上的行為方式──我們如何溝通、分享資訊和對待他人。隨著人工智能的興起,這個概念擴展了。它現在包括在基本層面上理解人工智能工具如何運作,認識到它們的潛在好處和壞處,以及在使用它們時做出道德選擇。這意味著不僅要成為互聯網的好「公民」,還要成為一個日益受到人工智能影響的數碼社會的好「公民」。這不僅僅涉及網絡安全和禮儀;它還包括圍繞用人工智能創作內容、對人工智能輔助的輸出負責,以及意識到人工智能更廣泛的社會影響的道德考量。

你的責任:以道德和尊重的方式使用AI

使用人工智能工具伴隨著某些責任。這些就像遊樂場的規則,幫助每個人安全、公平地互動:

  • 問責制:當你使用人工智能工具,特別是創造某些東西(如文本、圖像或代碼)時,你對你創造的內容及其使用方式負責。如果人工智能幫助你製作的東西結果是錯誤或有害的,你對該結果負有共同責任。
  • 私隱(你和他人):在使用人工智能時保護自己的個人資訊,並同樣尊重他人的私隱。不要使用人工智能工具試圖找出他人的私人資訊,也絕不要在未經他人明確許可的情況下使用人工智能分享他人的私人詳細資訊或圖像。
  • 避免和識別偏見:要意識到人工智能系統可能存在偏見,如前所述。盡量不要以創造或傳播有偏見內容的方式使用人工智能。如果你注意到一個人工智能工具似乎不公平或有刻板印象,最好指出來(向成年人或在適當情況下通過反饋機制)。在使用和解釋人工智能時力求公平。
  • 透明度(即使只懂一點點,也要理解AI):雖然你不需要成為人工智能專家,但基本了解人工智能是根據數據和演算法做出決策,而且這些過程並不總是完全清晰或可解釋的,這一點很重要。這有助於你記住人工智能的輸出並非絕對正確。
  • 尊重知識產權和註明出處:就像你不會從書中抄襲一章並稱之為自己的作品一樣,這也適用於人工智能生成的內容。如果人工智能在項目中給予了你重要幫助,或者你直接使用了由人工智能創建的內容,根據學校或普遍的道德規範,註明出處或承認其作用是很重要的。將人工智能的作品完全當作自己的作品呈現可能被視為抄襲。
  • 打擊欺凌和仇恨:絕不應使用人工智能工具來創建或傳播刻薄、仇恨或意圖欺凌或騷擾他人的內容。例如,創建同學或其他人的有害深偽作品,是對人工智能的嚴重濫用,並可能造成重大傷害。
  • 保持批判性思維:即使人工智能工具變得越來越複雜,你自己的批判性思維能力也是不可替代的。不要只是被動地接受人工智能告訴你的東西;繼續質疑、分析並形成自己的判斷。

培養具備AI素養的數碼公民,需要從純粹的「保護和預防」心態轉變為「準備和賦權」的心態。目標不是要讓兒童遠離日益普及的人工智能,而是要為他們配備技能、知識和道德框架,以便他們能夠批判性地、建設性地參與其中。這意味著鼓勵他們將人工智能視為學習和創造的潛在合作者,而不僅僅是捷徑或濫用的工具,並理解他們自己在塑造其道德應用中的作用。

何時向可信賴的成年人求助

駕馭數碼世界,特別是面對像人工智能這樣的新技術,有時可能會感到困惑或擔憂。兒童必須知道他們並不孤單,並且他們總是可以尋求幫助:

  • 如果網上有任何事情,無論是否與人工智能有關,讓他們感到擔心、困惑、不舒服或不安全,他們應立即與父母、老師或其他可信賴的成年人交談。
  • 如果他們遇到懷疑是深偽技術、錯誤資訊或其他有害的內容。
  • 如果他們認為有人濫用人工智能來欺凌、騷擾或傷害他們或其他人。
  • 如果他們不確定人工智能工具或應用程式的私隱設定,或者如果他們被要求分享讓他們感到不舒服的個人資訊。

可信賴的成年人可以提供指導、支持並幫助解決任何疑慮,確保兒童在人工智能方面的體驗盡可能安全和正面。

AI的未來:孩子們的下一步是什麼?

人工智能是一項不斷成長和變化的技術。展望未來,人工智能很可能在兒童的生活中扮演更重要的角色,提供令人興奮的新機會,同時也強調人類技能和負責任使用的永恆重要性。

AI未來可能帶來幫助的令人興奮的方式

人工智能帶來正面變革的潛力是巨大的,其中許多可能直接惠及年輕人:

  • 個人化學習體驗:人工智能可以通過為每個學生提供高度定制的學習體驗來徹底改變教育。想像一下,由人工智能驅動的導師能夠準確理解每個孩子的最佳學習方式,適應他們的節奏,以多種方式解釋概念,並在需要時精確提供支持。這有助於彌合教育差距,使學習對每個人都更具吸引力和效率。
  • 醫療保健的進步:人工智能有潛力改善健康和福祉。它可以協助監測健康,提供健康習慣(如運動或均衡飲食)的提醒,甚至幫助醫生更早、更準確地診斷疾病。例如,人工智能可以作為父母的「數碼雙胞胎」,幫助追踪孩子的發育里程碑或疫苗接種時間表。
  • 增強的創意工具:隨著人工智能技術的發展,它可能會提供更複雜的藝術表達工具。兒童可以利用人工智能幫助他們創作驚人的藝術作品、作曲、撰寫互動故事、設計遊戲,並以新的方式將他們的想像力變為現實。
  • 解決重大的世界問題:人工智能快速分析大量數據的能力可用於應對世界上一些最緊迫的挑戰。這可能包括幫助更有效地預測和應對自然災害,為氣候變化等環境問題尋找解決方案,或改善資源管理。
  • 改善安全和可及性:人工智能可以有助於使世界更安全,例如,通過改進網絡安全工具來檢測和預防網絡欺凌或有害內容。它還可用於開發增強殘疾兒童可及性的技術。

人類技能的持續重要性

即使人工智能變得越來越強大,獨特的人類技能不僅會保持重要,而且可能會變得更有價值。技術可以輔助,但它無法取代使我們成為人類的核心特質:

  • 創造力和想像力:雖然人工智能可以根據它學到的模式生成內容,但真正的原創性、突破性的想法和深刻的想像力源於人類的思想和經驗。
  • 批判性思維和複雜問題解決能力:深入思考、提出探索性問題、從多個角度分析複雜情況,以及解決沒有現成數據集的新穎問題的能力,將受到高度重視。過度依賴人工智能來獲取答案可能會阻礙這些關鍵技能的發展。
  • 情商和同理心:理解和聯繫他人的感受、表示同情和建立有意義的關係是基本的人類能力。人工智能缺乏真正的情感理解,無法複製人類的同理心。有人擔心,與人工智能伴侶過度互動可能會導致在建立有意義的人際關係方面出現困難。
  • 協作與溝通:與他人有效合作、清晰有說服力地傳達思想以及駕馭社交動態的能力,是人工智能無法替代的技能,在任何未來的職場或社區中都至關重要。
  • 道德判斷和價值觀:基於道德、價值觀和對是非的理解來做出決策是人類的責任。人工智能可以處理資訊,但它不具備道德羅盤。

未來人工智能的整合可能會比今天更深入。因此,培養這些獨特的人類技能既是一種區分,也是一種關鍵的保障,確保技術為人類服務,而不是反過來。

你在塑造積極AI未來中的角色

今天的年輕人不僅僅是人工智能技術的被動消費者;他們是能夠影響其發展和使用的積極參與者。以下是他們可以發揮作用的方式:

  • 保持好奇心,不斷學習:人工智能的世界在不斷發展。通過保持好奇心、提問和樂於學習新的AI工具和概念,兒童可以更好地理解如何有效和負責任地使用它們。
  • 為善用AI:思考如何利用人工智能來幫助他人、解決社區問題或創造積極的變化。他們作為人工智能用戶的選擇對於塑造一個對每個人都有益的數碼世界至關重要。
  • 倡導公平和安全的AI:隨著他們的成長,兒童可以成為倡導者(在需要時得到成年人支持),倡導設計和使用公平、尊重私隱並維護兒童權利的AI系統。他們的聲音和觀點在關於如何開發和治理人工智能的討論中非常重要。

兒童的理解、使用模式和未來需求可以顯著影響人工智能發展的軌跡。通過今天投資於他們的AI素養──教育他們關於其能力、風險和道德維度──我們賦予他們成為批判性消費者、負責任的用戶,並最終成為一個使AI更符合人類價值觀和社會最佳利益的未來的建築師。

結論:成為具備AI意識的數碼公民

人工智能是一項變革性技術,已經在重塑我們學習、玩樂、創造和互動的方式。它為創新和積極變革提供了巨大的潛力,但就像任何強大的工具一樣,它伴隨著責任和潛在風險。對於在AI無處不在的世界中成長的兒童來說,理解其本質、陷阱和可能性不僅僅是一項學術練習──它是數碼公民的基本方面。

本文章探討了AI並非一個神奇的、無所不知的實體,而是人類智慧的產物,建立在程式之上並通過數據進行訓練。這種人類來源意味著AI可能會繼承人類的偏見,如果管理不善,會導致不公平或歧視性的結果。AI消耗的數據,通常是從包括兒童在內的用戶那裡收集的,引發了重要的私隱問題,需要謹慎和知情同意。此外,AI能夠生成逼真但虛假的內容,如深偽技術,這突顯了對媒體素養和辨識能力的迫切需求。

然而,傳達的訊息並非恐懼,而是賦權。通過理解這些挑戰,年輕人可以裝備自己,以知識和技能安全、道德地駕馭AI領域。年輕數碼公民的關鍵要點包括:

  • 做一個批判性思考者:始終質疑資訊,特別是來自AI的來源。交叉核對事實,尋找偏見或操控的跡象,並記住AI不像人類那樣理解世界或擁有情感。
  • 保護你的私隱:注意在網上和AI工具中分享的個人資訊。理解和使用私隱設定,並毫不猶豫地向成年人求助。
  • 負責任和道德地使用AI:利用AI作為學習和創造的工具,而不是作弊的捷徑或傷害他人的手段。給予應有的讚揚,並考慮AI輔助創作的影響。
  • 發聲並尋求幫助:如果網上有任何事情,無論是否與AI相關,感覺不對、困惑或不安全,請與可信賴的成年人交談。開放的溝通是網絡安全的基石。
  • 擁抱人類技能:隨著AI處理更多由數據驅動的任務,獨特的人類屬性,如創造力、批判性思維、情商和道德判斷,變得更加重要。繼續培養這些品質。

對於教育工作者、父母和監護人來說,這段旅程包括促進關於AI的開放對話,教授批判性評估技能,示範負責任的AI使用,並與他們指導的孩子一起保持資訊靈通。它還包括倡導開發和部署以兒童權利、安全和福祉為核心設計的AI系統。

最終,目標是培養一代具備AI意識的數碼公民,他們不僅僅是技術的用戶,也是其未來的深思熟慮的批評者和道德塑造者。通過謹慎地擁抱好奇心,以及在理解潛在風險的情況下負起責任,年輕人可以駕馭AI的好處,同時減輕其風險,為一個既創新又人道的數碼未來做出貢獻。

Tags: