倫理與 AI

Alexandra Klepper
Alexandra Klepper

使用 AI 工具和生成新內容時,有許多倫理考量。誰擁有輸出內容的著作權?尤其是當輸出內容受到受著作權保護的素材影響很大,或是直接複製受著作權保護的素材時。在大型語言模型 (LLM) 分析資料時,我們如何看待人類偏見?

身為網頁從業人員,我們必須以深思熟慮且負責任的態度,建構新技術。世界各地有許多人致力於解答這些問題 (以及更多問題)。我們無法涵蓋所有疑慮,但可以開啟對話,瞭解您在使用 AI 時如何思考倫理問題。

使用及建構 AI 工具時,請考量下列幾個重要領域:

  • 內容擁有權和著作權著作權是針對原創作品的法律保障,各國家/地區的法律不同,許多國家/地區正在討論 AI 生成內容的後續處理方式。發布內容時,請務必瞭解下列問題的答案:你是否侵犯他人的著作權內容?這可能比您預期更難回答!
  • 偏見和歧視。電腦和演算法是由人類建構,訓練資料可能也是由人類收集,因此會受到人類偏見和有害刻板印象影響。這會直接影響輸出內容。
  • 隱私權與安全性。這對所有網站和網路應用程式都很重要,尤其是含有私密或個人識別資訊的網站和應用程式。使用雲端 API 將使用者資料公開給更多第三方,這是一項令人擔憂的問題。任何資料傳輸都必須安全無虞,且持續受到監控。

Google 的 AI 開發原則

我們致力於以負責任的方式開發技術,並確立會避開的特定 AI 領域。事實上,Google 致力於遵守多項 AI 原則,並由中央團隊負責控管和實施。

簡而言之,AI 技術應用的目標如下:

  1. 大膽創新。我們開發的 AI 技術可協助、賦予力量並啟發人類在幾乎所有領域的努力;推動經濟進步;改善生活、促成科學突破,並協助解決人類面臨的最大挑戰。
  2. 負責任的開發和部署作業。我們瞭解 AI 仍是新興的變革性技術,會帶來不斷變化的複雜性和風險,因此在 AI 的開發和部署生命週期中,從設計、測試、部署到疊代,都會負責任地追求 AI 技術,並隨著 AI 進步和用途演變而學習。
  3. 攜手合作,一起向前邁進。我們開發的工具可協助他人運用 AI 技術,為個人和集體創造福祉。

雖然我們身為網頁開發人員,可能不一定負責建立模型和收集訓練 AI 工具的資料集,但我們有責任決定要使用哪些工具,以及要用 AI 建立哪些最終產品。

網路上各機構對倫理的看法

許多非營利機構、非政府組織 (NGO) 和其他公司都以建立符合倫理規範的 AI 為工作和研究重心。

以下僅列舉幾個例子。

這個領域還有許多工作要做,也有許多考量因素尚未發掘。我們打算針對生成的每項內容,審慎考量倫理問題。