當(dāng)前,人工智能技術(shù)正在很多領(lǐng)域展現(xiàn)出巨大的應(yīng)用前景,谷歌、臉書、亞馬遜、涂鴉智能等科技巨頭更是紛紛在人工智能領(lǐng)域進(jìn)行深度布局。不過,人工智能的快速發(fā)展引發(fā)的倫理爭議也不斷出現(xiàn)。臉書、谷歌等企業(yè)都先后投入ai倫理研究,上周,就連歐盟也來“湊熱鬧”,發(fā)布了ai倫理指導(dǎo)方針。
ai倫理研究為何如此受到企業(yè)和平臺方的關(guān)注?目前各大企業(yè)的研究進(jìn)展如何?今天,《智能化商業(yè)》圍繞ai倫理問題、ai倫理研究等維度,為讀者呈現(xiàn)一篇深度分析。
ai倫理已成ai公司顯學(xué)
俗話說,權(quán)利越大,責(zé)任越大。人工智能技術(shù)正變得越來越強(qiáng)大,那些早開發(fā)和部署機(jī)器學(xué)習(xí)、人工智能的企業(yè)現(xiàn)在也開始公開討論其創(chuàng)造的智能機(jī)器給倫理道德帶來的挑戰(zhàn),并投入巨大的成本開展ai倫理研究。
2019年3月,臉書宣布與德國慕尼黑工業(yè)大學(xué)共建人工智能倫理研究所,探索人工智能給人類和社會帶來的復(fù)雜問題,推動相關(guān)倫理研究。按照計劃,臉書將在未來五年內(nèi)為該研究所提供650萬歐元(約合734萬美元)的研究經(jīng)費(fèi),用于從技術(shù)和倫理角度對人工智能領(lǐng)域的項(xiàng)目進(jìn)行審視。
公認(rèn)的機(jī)器學(xué)習(xí)技術(shù)者谷歌也成立了一個由外部專家組成的“人工智能道德委員會”, 以監(jiān)督公司在應(yīng)用人工智能及新興技術(shù)時遵循相關(guān)倫理準(zhǔn)則。據(jù)悉,該委員會成立的初衷是重點(diǎn)對人臉識別、機(jī)器學(xué)習(xí)算法等爭議性應(yīng)用給予建設(shè)性意見,對其中涵蓋的倫理和準(zhǔn)則問題提出建議。
不過,在經(jīng)歷了內(nèi)部員工聯(lián)名抗議和外部專家批評后,不到10天,谷歌就宣布取消其新設(shè)立的人工智能道德委員會,并稱未來將通過不同的方式來獲取有關(guān)人工智能發(fā)展的外部意見。
歐盟多次在公開場合表示,希望成為ai道德領(lǐng)域的,就在上周也對外發(fā)布了ai倫理指導(dǎo)方針。據(jù)了解,歐盟召集了由52名專家組成的小組,他們提出了未來ai系統(tǒng)應(yīng)該滿足的七大原則,具體包括:人類作用和監(jiān)督,技術(shù)穩(wěn)健性和安全性,隱私和數(shù)據(jù)管理,透明度,多樣性、無歧視和公平性,環(huán)境和社會福祉,問責(zé)制。
在美國,還有幾大巨頭發(fā)起的人工智能聯(lián)盟,成員包括亞馬遜、谷歌、臉書、ibm、微軟、蘋果等企業(yè),其主要致力于解決ai技術(shù)的可靠性問題??梢钥闯?,當(dāng)下,隨著人工智能逐漸滲透大眾的生活,倫理問題研究越來越受到重視。
ai雙面刃——安全和便利孰輕孰重?
ai倫理是一個影響廣泛的龐大話題,它不僅涉及ai如何影響人類個體,還包括它在倫理上如何影響社會,乃至整個地球。ai發(fā)展至今,帶來了很多倫理層面的影響,這其中涉及社會、經(jīng)濟(jì)、政治和環(huán)境領(lǐng)域。
在百度創(chuàng)始人李彥宏看來,真正的ai企業(yè)必須是三維一體的,即具備ai思維、擁有ai能力、遵循ai倫理。其中,遵循ai倫理指的是不僅技術(shù)層面要跟ai緊密結(jié)合,公司文化也必須ai化。
李彥宏以無人駕駛汽車舉例,他認(rèn)為,“無人駕駛和道路協(xié)同可以改善城市的交通擁堵問題。以上海估算,交通擁堵會產(chǎn)生5%的gdp損失,一名司機(jī)一年有100個小時處在交通擁堵的環(huán)境中,其中大約30%的時間在找停車位。但無人駕駛和道路協(xié)同可以解決這些問題,尤其在找停車位的‘后一公里’問題上,無人駕駛技術(shù)已經(jīng)成熟。目前,人們就可以將車輛駕駛到目的地后離開,再讓車子自動泊車。”
又比如,在傳統(tǒng)制造業(yè),打造一款智能產(chǎn)品需要耗費(fèi)6—12個月,但是在化ai+iot平臺涂鴉智能的技術(shù)賦能下,可以實(shí)現(xiàn)5分鐘制作一款自有品牌app,8小時完成智能化產(chǎn)品demo、15天實(shí)現(xiàn)量產(chǎn),大幅降低了傳統(tǒng)企業(yè)智能化升級的人工成本、時間成本。
又或者是在視覺和語音兩個和消費(fèi)者使用場景高度相關(guān)的ai技術(shù),已經(jīng)可以做到相當(dāng)成熟的自然語音交互,例如天貓精靈、亞馬遜echo等智能音箱都可以做到即時替用戶搜索天氣、新聞,甚至是操縱其他智能電器的境界。
盡管ai帶給人類生活*的便利,但便利的背后亦有許多隱患,例如安全性。隨著ai越來越方便,人類越來越離不開ai,ai會搜集到越來越多的個人數(shù)據(jù),如何確保ai背后的平臺不利用這些個人隱私數(shù)據(jù)作惡,甚至對人類進(jìn)行反撲,成了aiot時代的一大課題。
專家:無需對ai倫理過于焦慮
“我們正處于人工智能的轉(zhuǎn)折點(diǎn),人工智能理應(yīng)受到人類道德的約束和保護(hù)。”微軟研究院的常務(wù)董事埃里克·霍維茨曾經(jīng)表示。
不過,從谷歌設(shè)立不到10天的“人工智能道德委員會”被迫取消,可以看出當(dāng)初該委員會的設(shè)立并未考慮周全,而是迫于輿論壓力被迫設(shè)立。這也從側(cè)面看出,科技巨頭目前對于ai倫理研究的焦慮。
英國人阿蘭·溫菲爾德是世界上一名ai倫理學(xué)家。作為西英格蘭大學(xué)工程、設(shè)計和數(shù)學(xué)系的教授,他的主要研究內(nèi)容就是“機(jī)器人倫理”。在他看來,ai雖然帶來了令人發(fā)愁的倫理問題,但有些焦慮并沒有必要。
溫菲爾德認(rèn)為,ai倫理和人類倫理其實(shí)并沒有邊界,因?yàn)樗芯康膶ο笠廊皇侨?mdash;—制造ai的人,可能是設(shè)計者、,或者是維護(hù)者、維修者。而溫菲爾德提出應(yīng)對倫理困境的切實(shí)可行之道便是,“當(dāng)制造ai的人需要做出決定時,記得要有正義感和責(zé)任心。”
在保障用戶信息安全上,涂鴉智能就提供了兩種安全防護(hù)機(jī)制:一是利用設(shè)備獨(dú)立、aes加密、動態(tài)密鑰等方式保障設(shè)備在本地網(wǎng)絡(luò)安全運(yùn)行;另一個是通過數(shù)據(jù)加密、身份識別、動態(tài)密鑰、通道加密等技術(shù)的綜合應(yīng)用,確保智能設(shè)備在與外網(wǎng)連接時同時得到安全保障,達(dá)到了金融級別的安全防護(hù)。
(原標(biāo)題:“ai倫理”成人工智能時代挑戰(zhàn) 看科技巨頭如何應(yīng)對?)