隨著人工智慧(AI)技術的迅速發展,醫療AI的應用日益廣泛,AI技術的發展同時帶來倫理、隱私、資訊安全與公平性等挑戰。為確保AI技術在醫療領域的應用符合倫理、安全與負責任的標準,高雄醫學大學附設中和紀念醫院成立 「負責任AI執行中心」,並依循行政院《人工智慧基本法》七大核心原則—永續發展與福祉、人類自主、隱私保護與資料治理、資安與安全、透明與可解釋、公平不歧視、問責,制定 「人工智慧模型臨床應用部署辦法」。
本中心秉持醫療品質與病人安全優先的原則,確保人工智慧技術的負責任應用,並致力於打造 安全、透明且可靠的醫療AI環境,使人工智慧技術的發展真正造福患者與醫療體系。

