本周课题:
- 有决定权,就要负成败之责。
- 大数据,取之于民,用之于民

图费・克奇:机器智能时代,坚守人类道德更重要
- 计算机科学控制着 十亿人每天能看到的信息
- 机器学习潜在的偏见以及不透明的算法,带来的后果可能会影响人的一生。
- 培养算法的怀疑、复查和调研能力,对算法的公开透明,人工智能不是“伦理免责卡”。
苏珊•埃特林格: 如何应对大数据?
- 数据量的大小不代表一切。 还有数据传播的速度, 数据的类型。
- 数据自己不会创造意义, 是我们创造数据的意义。
- 积极进行批判性思维
约翰·威尔班克斯: 让我们分享医疗数据
- 身体健康是由 我们的身体、基因、环境 和日常选择共同决定的
- 发起世界上第一个完全数字化的、自给自足的 无限制、无国界且符合伦理的临床研究供人们来提供数据,找到需要整个社会努力的健康标准。
- 呼吁人们提供身体的数据,数据是开源的,分析完后数据最终会还给民众
尤瓦尔诺亚哈拉瑞:法西斯主义者?把复杂的世界简化
- 法西斯:否认国家身份以外的所有身份,并坚持我只对我的国家有义务。
- 资料数据成为如今最重要的资产。政治变成在努力控制数据流。而现在的独裁专政意味着太多数据资料集中在政府或少数菁英团体的手中。
- 预防法西斯主义的再现,要确保分布式数据处理至少要和集中式一样有效益,同时要了解自己的缺点。
推荐系统
- 协同过滤就是通过数据找到与你相似的用户,通过他们的行为和他们喜欢的内容,为你推荐你可能感兴趣的物品或内容。
- 推荐系统是一种信息过滤系统,根据用户的历史行为、社交关系、兴趣点,算法可以判断用户当前感兴趣的物品或内容。
我的想法:
- 大数据时代,需要有平台对算法负责。 如今的应用及网站,都有算法在背后控制用户查看的内容。算法的漏洞与缺陷很可能会引发社会事件。比如:央视点名批评快手,走红的“全网最小妈妈”导致不少少女模仿错误。快手回应是:“算法推荐”,即个人喜好决定推荐内容,用户关注内容与平台无关。快手甩锅算法,难道算法不是快手的程序员和产品经理设置的吗?既然算法有问题就要改正,承认错误,对算法负责,是一个公司应有的社会责任感。
- 大数据时代,需要算法公开透明化。 用户的上网行为在大数据下毫无保留,若算法不公开,我们不知道平台拿用户的数据屑来做什么。取之于民,用之于民。取什么用什么,公众有权利知道。
- 我们需要在大数据时代保护自己。 平台比我们更了解自己,它们展示的东西很大程度影响我们的判断与决策。这个保护意味着我们要更多地学会独立思考,学习批判性思维,自己决定,而不是被平台牵着走。
参考: