您現在的位置是:首頁 > 動漫首頁動漫

計算機發展紅火,為何女性卻越來越少?一場聖誕夜的反思

由 矽谷密探 發表于 動漫2021-09-12
簡介當時,計算與程式設計工作早已與同女性的歧視捆綁在一起,年輕的男性對此興趣寥寥,幾乎沒有什麼人對接受由女性指導的計算機培訓感興趣

女性哲學家為什麼很少

計算機發展紅火,為何女性卻越來越少?一場聖誕夜的反思

熱點追蹤

/ 深度探討 / 實地探訪 / 商務合作

文/趙家鵬

181

6年的聖誕夜,詩人拜倫給一位密友寄去了一封信。

信中附有他新作的一首詩,這首詩名為《路德分子之歌》,後來成為了拜倫的代表作之一。詩中寫道:讓我們把織梭換成刀劍。

拜倫是路德運動的同情者之一。工業革命後的英國,機器的大量普及取代了人力勞工,失業的紡織工人對此發起了暴力抵抗,被稱作“路德運動”。身為勳爵的拜倫認為,“路德分子”是反抗強權的英雄,並極力歌頌他們毀壞紡織機的作為。

就在寄出這首詩的同年,一則家庭變故發生在拜倫家中。詩人重男輕女,一直渴望男丁,結果妻子卻為他誕下了一名女嬰。失望的詩人跟妻子離了婚,剛滿月的女嬰也就此離開了父親。

計算機發展紅火,為何女性卻越來越少?一場聖誕夜的反思

(埃達·洛夫萊斯畫像)

這名女嬰長大後,撿起了被拜倫扔下的織梭,成為了第一個將分析引擎技術與提花織機相結合的計算機程式設計師。

她叫做埃達·洛夫萊斯,被許多人認為是史上第一位計算機程式設計師。

從她和她的同代人開始,一場更新穎的技術浪潮將席捲而來。

世界上最早的計算機是由英國人構想和設計的。英國數學家查爾斯·巴貝奇於

182

0年構想和設計了第一部完全可程式化計算機,埃達·洛夫萊斯即是為查爾斯·巴貝奇的機器撰寫了第一段演算法。

為什麼是埃達·洛夫萊斯,一位女性完成了最早的程式設計工作?

在計算機成為電子技術之前,計算與程式設計被視作應由女性從事的工作。在當時傲慢的紳士們看來,它需要的並非體力勞動,而是死記硬背,即使很多時候需要高階的數學知識,也被認做是“非智力的勞作”。英國哲學家薩迪·普蘭(Sadie Plant)研究認為,早期與計算科學相關的工作,與“編織”有某種程度的相似性,“它是透過複雜的過程將多條線整合到一塊布料中。”換句話說,

如果婦女可以操作紡織機,那麼為什麼不能是計算機?

這樣的刻板印象為英國的計算科學發展帶來了最早的勞動力:女性程式設計師群體。她們負責操作、程式設計、排除故障和組裝新機器。二戰期間,英國皇家海軍的女兵們甚至組裝了世界上第一臺電子數字可程式設計計算機:巨人計算機(Colossus Computer)。這臺機器曾用來破譯納粹德國的密碼,併為確定諾曼底登陸的具體時間做出了貢獻。

埃達·洛夫萊斯毫無疑問是計算科學中的女性先驅。為了紀念她,從上世紀八十年代開始,多個國家和組織設立了以其名字命名的獎項和學會,一位英國記者還創立了“埃達·洛夫萊斯日”,用以提高女性在科學,技術,工程和數學(STEM)上的形象。

每年十月的第二個星期二,“埃達·洛夫萊斯日”的聚會活動會如期舉辦。

紀念活動的一個主題是:

如何提高計算科學領域中的女性地位。

這是我們今天不得不面對的一樁事實。

來自麻省理工的發現

三十多年過去,計算科學經歷了發展高潮,網際網路與人工智慧興起,但留在行業裡的女性,處境卻正在變得更加艱難。

加拿大女孩喬·布蘭

維尼

,提醒我們注意到了這件事。

平常她喜歡戴彩色厚邊框眼鏡,留一頭蓬鬆捲曲的黑髮。前者是她的時尚標籤,後者則透露出她的另一重身份標籤:一位迦納裔的黑面板女孩。

喬是一位天才少女。少年時,她就在計算機科學上表現出了獨特天賦,其後在多所名校進修。在麻省理工媒體實驗室,喬參與了一款互動式藝術裝置的研究。這款裝置可以識別頭部運動與面部表情,進而生成一副數字面罩,並投射到螢幕上。

喬遭遇了挫折。研究中,她的面孔並未被識別出來。她和同伴研究發現,這款採用了通用的面部識別軟體的裝置,只能在膚色較淺的面孔前,保持良好運轉。

對於有色人種特別是女性有色人種的面孔,它總是顯得無動於衷。

問題出在程式上嗎?

喬和夥伴展開進一步研究。她們用奧普拉·溫弗瑞、米歇爾·奧巴馬等人的照片,在多個面部分析程式上進行了測試。

結果發現,這些程式均出現了不同程度的識別錯誤:

上述傑出的黑人女性皆被判定為男性。

計算機發展紅火,為何女性卻越來越少?一場聖誕夜的反思

2018年,喬的研究團隊發表了名為《性別陰影》的論文,對商業化面孔識別技術的性別與膚色偏見提出了質疑和探討。論文檢驗了三款流行的商業化面部分析程式,發現這些程式在確定淺膚色男性性別時,錯誤率不低於0。8%,但在識別膚色較深女性時,兩款程式的錯誤率超過了34%,一款超過20%,幾乎無法正確識別。

這不僅僅是程式或演算法的偏差問題。喬認為,演算法反映了那些有權塑造技術的人的偏見。

女性,特別是深色面板的女性,正在遭遇“演算法凝視”。

即使是白人女性,也難以逃脫另類的“演算法凝視”。

微軟的一次演算法測試中,研究人員試圖讓演算法根據梅琳達·蓋茨(Melinda Gates)的LinkedIn資訊,推測其職業。結果發現,不同性別的人稱代詞會帶來完全不同的結果:當梅琳達·蓋茨是“她”時,其職業是教師;換成“他”時,這位微軟創始人比爾·蓋茨的夫人,則被認為是一位律師。

通用的商業化演算法可能是今天最具有全球化屬性的商品之一,它也將是未來的資訊基礎設施。它會延續現實世界的性別歧視嗎?

此前,我們已獲得過不少教訓。

儘管女性科學家在現實中佔比不少,但在維基百科中,只有18%的科學家傳記頁面留給了女性。

電影工業亦如此,自1946年以來,全年齡段電影的集體場景中,女性角色僅佔比17%。

今年,聯合國教科文組織公佈了一份名為《如果可以,我會臉紅(I’d blush if I could)》的報告。研究者發現,市面上流行的智慧語音助手,正試圖透過建立一種“溫順而樂於助人”的助手模型,向新一代年輕人傳遞性別歧視。這份報告同時預測,到2021年,智慧語音助手的全球使用量將達到18億。如果情況得不到改善,影響將是巨大的。

為什麼演算法會產生性別歧視?

訓練資料集的偏差是原因之一。

演算法需要大型、帶標註的資料集來進行訓練,資料樣本在採集與標註過程中,就會率先帶上傾向與偏見。如,用於計算機視覺研究、包含

140

0萬餘張帶標籤的圖片的ImageNet資料集,其中45%的資料量來源於美國,中國和印度加起來只佔3%的資料量,這從某種程度上造成了喬所發現的“性別陰影”問題,更少的深色面板女性用於訓練,以至於難以識別。

來自先前文化中的偏見,也在誤導訓練資料集。

負責微軟人工智慧研發的沈向洋認為,網際網路公開的新聞與網頁資料,構成了訓練演算法的基準資料集,而這些資料本身早已包含了網際網路既有的性別偏見:“sassy(刁蠻)”、“knitting(編織)”這類詞更靠近女性,而“hero(英雄)”、“genius(天才)”與男性的關聯更密切。

性別偏見的另一個來源是演算法本身。

通常情況下,如果訓練資料集中的某類人群出現比例較高,那麼演算法程式會為此類進行最佳化,以期提高整體預測準確率。這也就是說,在不加干涉的情況下,演算法會強化資料集帶來的偏見。

2018年,斯坦福大學兩位教授指出,谷歌翻譯在翻譯西班牙語到英語時,會出現預設使用男性代詞的情況,事後,谷歌修補了這一缺陷。這是演算法偏見的一個案例,在今日的英語語料庫中,男性代詞與女性代詞的比例為2:1。

上世紀六十年代,這一比例曾高達4:1,後因性別平權等社會運動,它降至如今水平。有人擔心,不加干涉的演算法,會破壞這一得之不易的成果。

多樣性的歷史低點

唐娜·哈拉維曾對新技術寄予厚望。

198

5年,她公開發表了《賽博格宣言》,呼籲人們透過科技塑造新的性別身份。這份樂觀的文字相信,未來將是一個由人工智慧主導的時代,新技術能讓女性逃離傳統性別角色的約束。

計算機發展紅火,為何女性卻越來越少?一場聖誕夜的反思

(唐娜·哈拉維)

現實令這位技術哲學家失望了。

技術進步,並未令古老偏見消失。

甚至帶來了糟糕的影響:

以計算科學領域為例,大範圍的性別偏見傳染髮生的同時,行業中的女性從業比例也變得更少了。

國際勞工組織測算,2018年女性佔美國勞動力的比重約為46。9%。而據蘋果、谷歌、臉書和亞馬遜公佈的資料,這些公司科技從業人員中,女性佔比不到30%。兩者相差嚴重。

在計算科學的前沿領域,性別人口的比例不足更為嚴重。今年的一份研究報告指出,在臉書和谷歌,女性人工智慧研究人員佔比分別僅為 15% 和 10%;在人工智慧學術領域,女性作者也只有18%。

另有統計表明,2018年全球人工智慧專業從業者中,只有22%是女性,女性從業者大多從事應用領域的工作,更少涉及技術開發。崗位的不同,意味著薪酬差距。即使是相同的技術崗位,女性收入也往往比男性更低,在今年的一份針對技術領域女性的調查中,女性比同崗位男性的薪酬少28%。

女性消失在計算科學的工作場所,會帶來什麼樣的影響?

微軟曾對歐洲各地1

150

0名女孩和年輕婦女進行採訪。結果顯示,從十五歲開始,女孩對STEM(科學、技術、工程、數學)的興趣開始下降,很重要的一個原因是,該領域內缺乏女性榜樣。

興趣的缺失導致更少的女性進入這些領域學習。斯坦福大學釋出的一則報告顯示,該校2017年人工智慧入門課程的男性比例為74%,機器學習入門課程的男性比例為76%,作為對比,加州大學伯克利分校兩門課程的男性比例分別為

73

%和

79

%。

這意味著,

參與人工智慧相關學習的學生中,每五個人中只有一名女性。

這是一場持續的衰退。

就在《賽博格宣言》發表的

198

5年,美國計算機科學的女性入學比例是37%。三十年過去,這一比例下降到了18%。考慮到這一領域的從業者大多需要專業背景,女性學生群體的縮水,已使這個領域發生了“多樣性的喪失”,甚至有觀察者認為,我們今天正處在一個多樣性的歷史低點。

梅琳達·蓋茨為此感到沮喪。這位遭遇過“演算法凝視”的慈善活動家發現,既往科技公司用於慈善和社會責任方面的努力,只有大約5%惠及了科技行業的女性,其中僅有0。1%是有色女性。

這些數字背後的潛在指責是,科技巨頭們似乎並沒為此作出太多努力。

那麼,如何增加女性在計算科學領域的機會?

2015年,斯坦福大學人工智慧實驗室主任李飛飛等人,發起成立了一個名為“AI4ALL”的專案。這是一個面向學生的人工智慧體驗與教育專案,主要物件是女性、一些有色人種和低收入家庭的學生。

在李飛飛這樣的從業者看來,要改變計算科學領域的性別偏見,需要從教育入手,教育則要從娃娃抓起。專案發起者們雄心勃勃地表示,該計劃要在五年內惠及一百萬人。

如果缺少女性,那就投入女性,如果沒有女性,那就培養她們。這看起來是一條充滿實用主義精神的有效路徑。但它並未觸及的癥結是 :

“多樣性的喪失”背後,更大的原因是什麼?

誰把女性趕出大門?

斯蒂芬妮·雪莉知道答案。

斯蒂芬妮的職業生涯開始於1950年代的英國。她是一位計算機程式設計師,在郵政研究站(Post Office Research Station)負責為大型計算機編寫程式碼。郵政研究站位於倫敦西北部的多利斯山,二戰期間,丘吉爾

政府

在這裡建立了秘密的密碼破解機構。戰後,這裡成為了英國計算機研究的中心。

計算機發展紅火,為何女性卻越來越少?一場聖誕夜的反思

(斯蒂芬妮·雪莉)

郵政研究站最早的僱員都是像斯蒂芬妮這樣的女性。在1950年代,大型計算機的操作複雜繁瑣,實際的用處卻有限。英國

政府

當時並未過多

關注

這種龐然大物的潛力,沿用戰時思路,僅組建了一支有女性組成的技術工人團隊。

這群女性技術工人就是英國乃至全球最早的程式設計師群體。

和今日不同,程式設計師在那時算不上值得羨慕的好工作。一開始,這群女性程式設計師被編入英國的公務員體系,處於公務員體系中的“機器等級”。她們獲得的報酬很低,不僅無法與男性相比,也遠比在

政府

工作的其他女性更低。甚至,1950年代中期,英國

政府

承諾執行同工同酬政策時,這些處理技術工作的女性也未獲得同等報酬。

糟糕的報酬,糟糕的地位,斯蒂芬妮忍受著這一切,內心依舊感謝這個國家。斯蒂芬妮是一位出生在德國的猶太人,二戰期間,在一項英國人道計劃的幫助下,她和其他一萬名猶太兒童逃離德國,來到英國。和所有勵志故事的開頭一樣,成人後,她獲得了計算機程式設計師的工作,然後依靠在夜校的勤奮,取得了數學學位,並在工作崗位上做出了不凡的成績。

1950年代後期,在斯蒂芬妮這樣的女性程式設計師的努力下,計算機工業在英國繼續取得突破,在應用層面,計算機開始在電力、稅收、宏觀調控、科學研究等公共事業領域發揮作用,逐漸成為了福利國家的一種基礎設施。

鐵幕拉下後的全球競爭中,越來越多的國家開始意識到這種新技術將帶來的改變。作為一線從業者,斯蒂芬妮和她的同伴為此感到驕傲,她們開始期待更大的成就。

斯蒂芬妮申請晉升。她提交了幾次申請,無一例外地失敗了。最終,她得知,評估她晉升的官員,寧可辭職也不贊成女性進入管理崗位。甚至,這並非針對她個人,與技術技能與受教育程度無關,這樣的歧視源於更深層的考慮。

看到了計算機潛力的英國政府,正打算把女性逐出這個領域。

當時英國

政府

的判斷是,為了匹配計算機在

政府

和企業運作中的重要地位,這個領域不能僅僅依賴低端的技術工人,需要引入更高階的管理層。

這個判斷看上去是合理的,但接下來的就是典型的偏見時刻:負責制定政策的人認為,女性是不適合擔任管理工作的,這個領域需要一支由男性領導的專業技術團隊。

這是技術史上一次國家恐慌:

面對女性,男性主導的政府開始擔心失去對未來機器的控制權。

問題是,在一個幾乎全由女性組成的行業了,去哪裡找到懂計算機的男性?

一項荒唐的計劃出爐了。斯蒂芬妮們被要求在完成工作之餘,每人要訓練兩名男性,教他們學習並掌握操作大型計算機所需要的一切技能。按照計劃,這些受訓的男性最終將取代訓練他們的女性。

這項計劃不出意外地失敗了。當時,計算與程式設計工作早已與同女性的歧視捆綁在一起,年輕的男性對此興趣寥寥,幾乎沒有什麼人對接受由女性指導的計算機培訓感興趣。儘管如此,英國

政府

依舊堅定著排斥女性的決心,在接下來的1960年代,越來越多的女性程式設計師被趕回了家。

斯蒂芬妮辭職了。她嫁給了一位物理學家,然後像那年頭許多已婚婦女一樣,她離開了工作,回到了家庭婦女的崗位上。她並不甘心,1962年,她在家創辦了自己的軟體公司,開始為擁有大型計算機的

政府

和企業提供外包程式。

這並不是一件容易事。身為家庭婦女,斯蒂芬妮需要在照顧孩子的同時,開展工作,有時,她不得不在家接客戶

電話

時,播放錄有打字機聲音的錄音帶,以此掩蓋孩子發出的聲音。歧視依舊盛行,為了獲得合同,她把簽名改成了“史蒂夫·雪莉”,因為她沮喪地發現,斯蒂芬妮這樣的女性化名字,無法幫她獲得任何生意反饋。

斯蒂芬妮當然沒有向歧視投降。一則刊登在19

64

年《倫敦時報》上的廣告昭示了她的決心:

退休女程式設計師之良機,反女權主義者勿擾。

許多此前被迫賦閒的女性程式設計師慕名而來,斯蒂芬妮為她們提供了在家工作的機會和靈活的工作時間。和今天的程式設計工作不同,當時的程式設計大多是在紙上完成的:在紙上打孔,然後把打孔紙交給交付給對方,進行機器測試。換句話說,任何人都可以在家裡完成這項工作。就這樣,

這群依靠兼職程式設計的女性,成就了英國最早的軟體公司之一。

斯蒂芬妮的生意越來越好時,英國計算機領域卻陷入了危機。當時,英國的技術官僚們正沉浸在“白熱化”浪潮中。“白熱化”是時任英國首相哈羅德·威爾遜提出的宣言,旨在利用技術革命,幫助英國實現現代化。但在計算機領域,由於女性程式設計師的缺失,勞動力發生了短缺。為了應對,實現政治上的目標,英國

政府

將當時還有剩餘生產能力的計算機公司合併為一家大型計算機公司:國際計算機有限公司(ICL),一家由男性勞動力為主的技術公司。

後來的故事是,計算機產業發生鉅變,個人電腦產品開始出現,大型機很快被淘汰。ICL在開始交付產品時,發現市場甚至英國

政府

也已經不需要它提供的服務的。但在當時,除了ICL,英國計算機產業已幾乎消失殆盡。

如果要為英國計算機產業撰寫一份墓誌銘,年份上可以寫下:

1940-1970年代。

短短三十年時間,世界上最早的計算機強國,從有到無,從生到死。

與之一同消亡的,是一群被權力刻意驅逐的女性程式設計師群體。

噩夢並未醒來

計算機女性史學者瑪麗·希克斯認為:

技術是一種在人們身上行使權力的工具。

通常,那些已掌握權力的人,是那些最不瞭解我們當前系統缺陷的人,同時也是決定我們技術未來的人。

對女性的歧視與偏見是諸多技術權力暴行中的一樁,它並未因技術的進步而有所好轉,也並未因權力來源的不同而所有改善。

1980年代中期以後,個人計算機的興起,帶來了計算科學的大眾化普及。

更多年輕人進入了計算科學的領域,包括女性。

但與此同時,計算機專業畢業生的性別比例中,女性卻逐年下降。

以美國為例,這一比例從

198

4年的37%下降到了今天的18%左右。

為什麼會發生這種變化?

有研究表明,早期個人計算機的營銷目標,主要集中在男性和男孩群體上,不僅忽略了女性,甚至透過電視廣告等媒介形式,不斷傳遞女性不適合這種新奇機器的觀念。

這導致了進入消費時代後,女性對於計算科學的興趣衰減。

也正是從那時開始,程式設計師或駭客這一形象變成了“男性書呆子”的形象。

隨著娛樂產業的全球擴張,刻板的性別印象在人工智慧時代甚至得到了加強和發展。

在好萊塢的指令碼中,程式設計師大多呈現為對技術狂熱痴迷的男性,男性機器人也大多承擔更多的探索型工作:探索太空、救助人類、進行科學研究;女性大多表現為輔助性角色,女性機器人則多是《銀翼殺手》中的性感、魅惑與順從的形象,甚至一旦女性機器人開始擁有自主思維,她們就會變成《西部世界》中噩夢般的殺戮角色。

新加坡南洋理工大學的一項研究,與好萊塢不謀而合。研究者測量了人類對於不同機器人完成工作的心理偏好,發現人們更傾向於女性機器人完成家政工作,而希望男性機器人完成安保工作。

“男性擅長征服,女性擅長守護。

大家都害怕機器,沒有人想被機器智慧所征服,但是所有人都願意被溫柔的機器智慧所守護。

這是馬雲在2019全球女性創業者大會上的發言,這位來自商業世界的發言人,同樣不小心袒露出了內心的性別安排。

我們不知道的是,計算科學領域中的女性,是否會接受這一安排呢?

《華爾街日報》前副總編輯喬安妮·李普曼相信:在男性建立起來的社會體系中,女性的觀點被重視、甚至被聽到都要比男性困難得多。

掌握技術權力的男人們,也應該瞭解這一點 。

參考資料:

1。 《女性化的機器和機器化的女性》,紐約時報中文網

2。 《千餘名谷歌員工要求將反跨性別保守派從人工智慧委員會剔除》,

澎湃新聞

3。 《微軟研究院:求索不已,為全人類,打造負責任的人工智慧》,沈向洋

4。 《馬雲:90% 的人工智慧是女性》,極客公園

5。 《AI, Ain‘t I A Woman?》,Joy Buolamwini

6。 《AI programs exhibit racial and gender biases, research reveals》,The Guardian

7。 《Global AI Talent Report 2019》,jfgagne

8。 《Meet the Bay Area Women in Tech Fighting Bias in AI》,Seismic Sisters

9。 《Women’s work: how Britain discarded its female computer programmers》,New Statesman

10。 《WOMEN IN TECHNOLOGY SURVEY 2019》,Women In Tech

11。 《The Future of AI Depends on High-School Girls》,The Atlantic

12。 《The artificial intelligence field is too white and too male, researchers say》,The Verge

13。 《Women in Computer Science》,Computer Science

14。 《Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification》,J Buolamwini,T Gebru

15。 《Analyze, Detect and Remove Gender Stereotyping from Bollywood Movies》,Nishtha Madaan,Sameep Mehta,Taneea S Agrawaal,Vrinda Malhotra,Aditi Aggarwal,Yatin Gupta,Mayank Saxena

16。 《Why are There so Few Female Computer Scientists》,Ellen Spertus