摘要:在機器智能領域,人工智能與智能增強兩大技術陣營在應替代人類還是增強人類上存有理念對立,并映射于法律。相對于計算機、網絡等智能增強技術以人為中心、以增強人類為目標,人工智能技術以機器為中心、以替代人類為目標,在技術上具有去人類化的屬性,此系人工智能諸多倫理困境與法律難題的產生根源。人工智能法律規制應當堅持以人為本,對人工智能前置性地施加局部替代人類、整體增強人類的價值負載,在人工智能不具有主體資格的前提下,圍繞人工智能以機器為中心的特性進行制度設計,弱化復雜的倫理困境與責任認定疑難,并保持與既定體系的接洽、交融。人工智能法律研究不應局限于法律范疇之內,在技術分析之外,還需要結合哲學、倫理學等學科的研究。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社