張雅琳表示,目前條文對於未成年人的風險評估與防護機制尚不完備。因此應以「兒少風險分級」為核心,建構完整的保護機制與配套措施,避免發生美國兒少使用AI造成的悲劇在台灣重演。

張雅琳指出,AI產品若涉及與未成年人互動、可能引發心理操控或資訊誤導,便屬於高度風險應用,政府應先行進行「兒少影響性評估」並設立分級標準,針對高風險應用制定預防、限制或禁止的規範。這不僅是國際趨勢,如歐盟《AI法案》皆有相關設計,也是保障基本人權的立法底線。其次,針對兒童可能使用的AI工具與服務,主管機關應建立「適齡使用指引」與「安全認證機制」。兒少保護不能只靠家長單打獨鬥,應將「兒少最佳利益原則」明訂於法。

推薦新聞:賴清德「打掉雜質」比喻惹藍營跳腳!總統府再解釋了

林宜瑾認為,不只數發部有這個責任,相關教育單位都應該要有正確使用人工智慧的基本知能,並傳達給孩子們。張雅琳辦公室提供
林宜瑾認為,不只數發部有這個責任,相關教育單位都應該要有正確使用人工智慧的基本知能,並傳達給孩子們。張雅琳辦公室提供

張雅琳表示,目前條文對於未成年人的風險評估與防護機制尚不完備。因此應以「兒少風險分級」為核心,建構完整的保護機制與配套措施,避免發生美國兒少使用AI造成的悲劇在台灣重演。立委張雅琳指出,AI產品若涉及與未成年人互動、可能引發心理操控或資訊誤導,便屬於高度風險應用,政府應先行進行「兒少影響性評估」並設立分級標準,針對高風險應用制定預防、限制或禁止的規範。這不僅是國際趨勢,如歐盟《AI法案》皆有相關設計,也是保障基本人權的立法底線。其次,針對兒童可能使用的AI工具與服務,主管機關應建立「適齡使用指引」與「安全認證機制」。兒少保護不能只靠家長單打獨鬥,應將「兒少最佳利益原則」明訂於法。

林宜瑾表示,人工智慧應及早落實各年齡層的教育,不管是使用教育、倫理教育等,有效地讓心智未成熟的未成年人,認識到人工智慧該如何被正確的使用,是件相當重要的事情。林宜瑾認為,不只數發部有這個責任,相關教育單位都應該要有正確使用人工智慧的基本知能,並傳達給孩子們。林宜瑾指出,在她的《AI基本法》草案版本,除了求各級單位要有人工智慧教育,「倫理教育」更是不可或缺;同時,政府應建立人工智慧濫用與危害的即時偵測、緊急應變與緊急處分的能力,如果人工智慧的使用可能致生兒少危害,應有相當機制阻止其發生。

台灣展翅協會陳逸玲秘書長表示,人工智慧雖為兒少帶來學習與創新機會,卻也衍生出深偽影像、誘拐聊天機器人、AI生成兒少性影像等風險,甚至在校園中出現兒少間以AI進行的數位加害行為。多數AI應用並非為兒少設計,卻有大量兒少使用,現行法規與系統治理對此缺乏應對。因此,我們呼籲《AI基本法》應將兒少保護納入核心架構,明定遵循兒童最佳利益原則,要求業者落實風險評估、年齡適切及安全設計與分齡使用規範,並禁止AI被用於對兒少造成危害的行為。此外,教育不應僅強調技術學習及應用,更應重視AI素養,協助兒少辨識虛實、理解風險。AI發展的同時,不應忽視兒少的安全與尊嚴。

台灣放伴教育協會理事長謝忠瑋指出,面對AI帶來的劇烈衝擊,第一線教師與學生其實早已深受影響,卻缺乏制度性支援。學生仰賴生成式 AI 交作業,卻未曾接受資訊判讀與負責任使用的訓練;老師在現場看見這些變化,卻缺乏明確教學指引,也不知該從哪裡開始談起。他強調,AI 教育不應只停留在操作層次,更應涵蓋理解、判斷與後果承擔。「我們不能再讓現場各憑本事、疲於奔命。」謝忠瑋呼籲,《AI基本法》應將數位公民素養納入核心精神,並明確由教育體系負起教學責任,否則法律即便立了,現場仍難以啟動轉型,無法真正落實兒少保護的初衷。他指出,近年如歐盟與 OECD 等國際組織,已將 AI 素養納入教育政策討論,台灣也應及早建立適齡使用指引與系統性教學規範,讓學生成為未來 AI 環境的參與者與設計者,而不只是受保護的使用者。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
「漢光41號」演習召集2.2萬後備軍人 教召令這裡查