道德上,人類應該使人工智能具有感受痛苦的能力嗎?

  1. 從功利主義上看,似不應該。(而且若做得到,我們應該使人工智能具有感受快樂的能力)。

  2. 從康德式義務論上看,由於人類似乎並不願意使「應該取消痛苦感受能力」成為彼此普遍遵守的法則,所以,答案是應該。

  3. 從德行論來看,我毫無頭緒與把握,也許應該是看個案具體情境而定罷。

  4. 如果1與2的各自推論沒錯,哪一個結論看起來比較可採呢?