“未來10—20年,AI技術(shù)將滲透至與人類密切相關(guān)的領(lǐng)域,比如醫(yī)療、司法、生產(chǎn)、金融科技等風(fēng)險敏感型領(lǐng)域,AI技術(shù)如果犯錯,就會造成較大系統(tǒng)風(fēng)險。”2020年12月29日,在未來科學(xué)大獎周舉辦的“青年對話”活動中,清華大學(xué)計算機系長聘副教授、中國科協(xié)全國委員會委員崔鵬說。
活動中,騰訊科學(xué)技術(shù)協(xié)會秘書長張謙表示,面對AI技術(shù)所引起的風(fēng)險問題,首先應(yīng)該關(guān)注的是守住AI產(chǎn)品底線,即避免技術(shù)作惡。
在這方面,美團首席科學(xué)家夏華夏認為,法律法規(guī)方面需要做大量工作,包括制定AI行業(yè)的標(biāo)準(zhǔn)、規(guī)范,以及從國家層面完善、出臺相關(guān)法律法規(guī),從而對AI技術(shù)發(fā)展進行把控。
談及AI標(biāo)準(zhǔn)化的實踐,中國人民大學(xué)法學(xué)院副教授、未來法治研究院社會責(zé)任和治理中心主任郭銳提到兩個原則——人的根本利益原則和責(zé)任原則,“這兩個原則的宗旨是讓AI的決策和行動盡可能通過人的干預(yù)來避免對人的傷害”。
“徒法不足以自行。”郭銳坦言,法律本身也存在局限,規(guī)避AI技術(shù)潛在風(fēng)險,需管理者對AI技術(shù)有透徹的了解,這樣才能對其進行有效管制,“法律是建立包容性社會的重要工具,法律界要和企業(yè)、技術(shù)等方面專家合作,這樣通過法律來對AI技術(shù)進行管理約束的目標(biāo)才能達成。”
星界資本管理合伙人方遠認為,各大核心數(shù)據(jù)平臺處于AI風(fēng)險管理的重要位置,“在互聯(lián)網(wǎng)和大數(shù)據(jù)時代,大平臺是數(shù)據(jù)的采集者也是守護者。務(wù)必要對數(shù)據(jù)使用權(quán)做出清晰界定,這對整個社會的AI發(fā)展有重要意義”。
“AI技術(shù)的風(fēng)險治理需要科技工作者、企業(yè)管理者、政策制定者、相關(guān)法律專家以及投資人多方努力。”中科院計算所研究員山世光說。
除了守住底線,與會者還提到,要厘清邊界,引導(dǎo)技術(shù)向善。
崔鵬指出,犯錯并非AI特有的風(fēng)險,人也會犯錯。“但人犯錯大多數(shù)可控、可預(yù)測。而目前AI技術(shù)犯錯的話是不可預(yù)測的,或者犯錯后人們會發(fā)現(xiàn)其犯錯機制是無法從技術(shù)層面解釋的。這涉及到AI在決策和行為上的邊界問題。”
厘清邊界具體包括AI需要明白它會什么、不會什么,以及人需要明白AI什么事能做、什么事不能做等問題。崔鵬認為,如不厘清邊界,AI還會犯更多低級錯誤,帶來更大風(fēng)險。
郭銳認為,目前AI遇到的倫理問題,實際上是因為它遠未達到人類智能的程度,卻已被賦予為人類做決策的責(zé)任,“還有人把AI技術(shù)當(dāng)作借口,用科學(xué)的名義做不符合倫理的決策,這樣做是不對的。需要人決策的地方應(yīng)該由人決策”。
2020年新冠肺炎疫情期間,英國用一套算法得出學(xué)生成績,結(jié)果近40%的學(xué)生成績低于教師的預(yù)估分數(shù),導(dǎo)致很多學(xué)生與名校失之交臂。山世光說,有些人工智能模型或數(shù)據(jù)模型沒有考慮到社會公平、優(yōu)勢累計惡果,導(dǎo)致看起來運算過程很嚴謹、結(jié)果很準(zhǔn),但卻并不足以支持AI做出科學(xué)決策。
有專家表示,這并非AI技術(shù)的錯。夏華夏說,真正應(yīng)承擔(dān)社會責(zé)任的是使用AI技術(shù)的人、企業(yè)等。AI技術(shù)向善需要社會整體文明發(fā)展到一定階段,形成良好氛圍。張謙則提到,技術(shù)并不可怕,可以通過技術(shù)進一步發(fā)展解決技術(shù)存在的問題。
山世光稱:“說到底,我們還是希望AI技術(shù)能得到健康發(fā)展,滿足對科技真、善、美的追求。”(實習(xí)記者 代小佩)
已有0人發(fā)表了評論