随着互联网技术的全面普及,算法社会已经来临。在人们使用社交媒体、浏览新闻网站、进行网络购物时,算法——互联网软件背后运算的规则,成为人与现实世界之间的中介。值得警惕的是,算法可能通过攫取用户隐私,影响人们对世界的认知与判断。
在信息时代,用户选择性地获取信息成为一种必然。传统媒体时代,信息的选择权掌握在记者和编辑手中,新闻专业主义使从业者在考虑受众喜好的同时兼顾信息的公共性,即不仅考虑“受众想要知道什么”,还进一步与“受众应该知道什么”平衡。
当算法取代人工编辑时,新闻专业主义逐渐隐退,算法通过记录用户行为以及参考与用户相似的人群,猜测用户信息喜好从而做出推荐,通过取悦、顺从用户的个性化信息推荐运算规则,最终达到让用户对软件“上瘾”的目的。用户在愉快地享受算法服务的同时,不可抑制地陷入更深的拟态环境中。
信息推荐算法将与用户意见相悖的信息、受众不感兴趣的知识拒之门外,看似为用户营造了一个“无菌环境”,但社会的复杂性也随之消失。用户被孤立地放置于封闭性的信息拟态环境之中,却又时常感知不到算法的隐秘操纵;其被算法反复“投喂”类似的信息,消除了偶遇其他观点的可能性。
有学者在研究搜索引擎背后的算法时,将算法为用户形成的信息环境称作“过滤泡”,它使得用户沉浸于熟悉、认可的信息中,而非多维视角内,使得用户更习惯被动地接收信息而非主动地探索信息,从而进一步丢失创新的可能性。
算法对于人类的影响不止于对世界的认知。在算法社会中,很多时候人们依赖算法做出判断,甚至将判断的权力交付于算法手中。例如,现在人们在规划出行路线时,依靠导航系统判断最佳出行路线甚至全权由系统决定出行路线。
的确,基于大数据的算法通过高效的运算在很多时候帮助人们做出更好的判断,但这是否证明算法的判断一定是最优解还处于未知状态。
人类的判断模型不仅应建立在事实层面,还应包括情感、道德、伦理等层面,后三者是如今算法无法抵达的。
事实上,研究者发现,算法对于人群的分类与判断常常携带着人类社会习惯性的偏见与歧视。但不同的是,算法的学习在于对过去数据的输入及模仿,而人类能够基于此进行反思。
若人们将决策的权力交给算法,人们将逐渐被贴上“算法标签”,算法携带的偏见与歧视将优质资源更进一步倾斜给算法标记的社会优势人群,社会不平等将进一步扩大。
我们现在仅处于“弱人工智能时代”,算法的智能化水平比较有限,但算法作为一个拥有极大发展潜力的新兴技术,其对人类产生愈发强烈的影响,无疑是一种时代趋势。将算法社会的风险以依靠个体算法素养来解决显然不现实。未来,对算法的治理需要多主体、多层级共同参与。
作为对算法最了解的一方,算法开发平台首先需要在遵守算法伦理规范的基础上自觉进行内在约束。其次应改变算法的“黑箱子”性质,提高运算规则的透明度。
此外,近年来有学者提出可以在算法设计过程中应用参与策略。参与式设计即通过赋予用户权力的方式,使他们在一定程度上参与到对技术的开发中。
这不仅有助于开拓用户的计算机思维,提高他们对算法风险的应对能力,还能帮助算法开发平台解决设计者意图与使用者期望之间的脱节问题。
如今,算法技术发展日新月异。2017 年,国务院颁布的《新一代人工智能发展规划》中强调,适应人工智能发展的基础设施、政策法规、标准体系亟待完善。
虽然我国目前已经出台《中华人民共和国网络安全法》《互联网信息服务管理办法》等一系列针对互联网信息安全和信息服务的法律规定,但对于高速发展的智能算法技术带来的问题和风险,还须更完备的法规建设和更强力的监管措施。
未来,人类必将面临算法带来的信息权力动荡、意识形态风险等问题,但也正如媒介素养教育中所强调的,我们不能一味抵制媒介影响,而应提升自身的综合能力来应对风险。
算法素养也是如此,我们需要合理运用人的价值理性驾驭算法的工具理性,在探索与实践中寻求最佳的共存方式。
来源:《网络传播》杂志