第二是數據中立。數據是可以用人工或自動手段處理的事實、概念和指令的表示,是各種計算、研究或設計所依據的數值,包括數字、字符、符號、圖表等。雖然大數據本身是客觀中立的,但在數據處理和使用中也可能產生非中立的結果,主要是因為這個過程中存在各種人為和主觀因素。在全球數據爆炸式增長的今天,正是由於人們在使用技術過程中的偏差,算法歧視等倫理問題不斷出現。比如算法推薦,隨著大數據和人工智能的快速發展,日趨成熟,但也不可避免地帶來偏見和歧視的倫理問題。現實生活中,壹些網購平臺,如“推薦”頁面或贈送“紅包”、“優惠券”,通常是通過個性化推薦算法獲得的。本質上,算法設計是有目的和價值觀的,體現了設計主體的意圖和選擇。因此,算法可以基於對個人的貧富差距、性別差異、健康狀況等信息的綜合把握,個性化、差異化地推薦相關產品或服務,但也會導致不同群體間信息掌握的不公平,甚至出現“大數據殺熟”等算法歧視現象。
第三是數字鴻溝。數字鴻溝是數字時代新的社會公平問題。傳統意義上的數字鴻溝主要是指在數據可獲取性、數據應用和數據分析方面的巨大差異,表現為壹些群體能夠更好地獲取和使用數字技術,而另壹些群體卻難以獲取和使用數字技術。數字鴻溝造成的數字技術資源分配不均衡,會逐漸造成群體矛盾和社會不公。大數據背景下,隨著移動互聯網的普及,數字鴻溝及其引發的社會公平問題不再主要表現在數字技術的可及性和應用上,而是日益演變為數字鴻溝,集中表現為知識、技術、經濟等因素導致的技能差距和價值差距。壹些政府部門、企業、科研機構等。,可以輕松獲取和使用數據,通過數據挖掘、計算、存儲和傳輸,掌握社會中的個體行為,而普通人很難獲得龐大的高質量數據。再者,即使人們成功獲取了大量高質量的數據,很多人也不具備分析各種復雜數據的技能。這樣壹來,這裏的數字鴻溝會越來越大,在數據獲取、技術應用、價值劃分等方面會出現不公平的倫理問題。