正視人工智能風險

  布恩

  近日非牟利組織「人工智能安全中心」發表由全球逾350名科技巨頭高層和學者聯署的聲明,指社會應將人工智能技術視為可威脅人類存亡的重大風險,危險性不下於疫症和核戰,故應視為全球優先處理事項。

  AI開發浪潮銳不可擋,但聯署聲明簽發人包括被稱為「ChatGPT之父」的OpenAI行政總裁阿爾特曼、被譽為「AI教父」的辛頓,以及多名微軟和Google高層,連「生父」也呼籲監管AI,可見科技人對AI的發展亦感到束手無策,AI或真有可能成為需要人類共同面對的敵人。

  聲明發表前,該組織也發表過AI八大風險的研究報告,列舉AI應用導致負面影響、錯誤訊息大量散播、人類過度依賴而變弱、權力集中在少數人手中、AI目標可能與人類的目標相衝突、欺騙和追逐權力等行為,條條都足以令人類滅亡。

  任何的科技,都有其危害,重要的是我們應該正視風險,讓危害降低,為我們所用。要監管AI,其複雜性比監管人類還難。畢竟AI的性質決定其使用的多元性和難以預測,但可從如何防止AI的不當應用,包括其可能引發的偽造信息問題、侵犯個人隱私的行為等,然後建立一個能夠應對這些挑戰的靈活而全面監管機制,確定AI應用的合理性和邊界,並且制定相應的法律法規,明確規定行為合法性,才能監管AI開發不會超乎想像而難以控制。