当前位置: X-MOL 学术WIREs Data Mining Knowl. Discov. › 论文详情
Our official English website, www.x-mol.net, welcomes your feedback! (Note: you will need to create a separate account there.)
Bias in human data: A feedback from social sciences
WIREs Data Mining and Knowledge Discovery ( IF 7.8 ) Pub Date : 2023-04-20 , DOI: 10.1002/widm.1498
Savaş Takan 1 , Duygu Ergün 2 , Sinem Getir Yaman 3, 4 , Onur Kılınççeker 5, 6
Affiliation  

The fairness of human-related software has become critical with its widespread use in our daily lives, where life-changing decisions are made. However, with the use of these systems, many erroneous results emerged. Technologies have started to be developed to tackle unexpected results. As for the solution to the issue, companies generally focus on algorithm-oriented errors. The utilized solutions usually only work in some algorithms. Because the cause of the problem is not just the algorithm; it is also the data itself. For instance, deep learning cannot establish the cause–effect relationship quickly. In addition, the boundaries between statistical or heuristic algorithms are unclear. The algorithm's fairness may vary depending on the data related to context. From this point of view, our article focuses on how the data should be, which is not a matter of statistics. In this direction, the picture in question has been revealed through a scenario specific to “vulnerable and disadvantaged” groups, which is one of the most fundamental problems today. With the joint contribution of computer science and social sciences, it aims to predict the possible social dangers that may arise from artificial intelligence algorithms using the clues obtained in this study. To highlight the potential social and mass problems caused by data, Gerbner's “cultivation theory” is reinterpreted. To this end, we conduct an experimental evaluation on popular algorithms and their data sets, such as Word2Vec, GloVe, and ELMO. The article stresses the importance of a holistic approach combining the algorithm, data, and an interdisciplinary assessment.

中文翻译:

人类数据的偏差:来自社会科学的反馈

随着人类相关软件在我们日常生活中的广泛使用,人们做出了改变生活的决定,其公平性变得至关重要。然而,随着这些系统的使用,出现了许多错误的结果。技术已经开始开发来解决意想不到的结果。对于问题的解决方案,企业普遍关注的是算法导向的错误。所使用的解决方案通常仅适用于某些算法。因为问题的原因不仅仅是算法;而是问题的原因。这也是数据本身。例如,深度学习无法快速建立因果关系。此外,统计算法或启发式算法之间的界限尚不清楚。该算法的公平性可能会根据与上下文相关的数据而变化。从这个角度来看,我们的文章重点讨论数据应该是什么样子,这不是统计问题。在这个方向上,所讨论的情况是通过特定于“弱势群体”的场景来揭示的,这是当今最根本的问题之一。在计算机科学和社会科学的共同贡献下,旨在利用本研究获得的线索来预测人工智能算法可能产生的社会危险。为了凸显数据带来的潜在社会和大众问题,格布纳的“耕耘理论”被重新解读。为此,我们对Word2Vec、GloVe和ELMO等流行算法及其数据集进行了实验评估。本文强调了结合算法、数据和跨学科评估的整体方法的重要性。所讨论的情况是通过特定于“弱势群体”的情景来揭示的,这是当今最根本的问题之一。在计算机科学和社会科学的共同贡献下,旨在利用本研究获得的线索来预测人工智能算法可能产生的社会危险。为了凸显数据带来的潜在社会和大众问题,格布纳的“耕耘理论”被重新解读。为此,我们对Word2Vec、GloVe和ELMO等流行算法及其数据集进行了实验评估。本文强调了结合算法、数据和跨学科评估的整体方法的重要性。所讨论的情况是通过特定于“弱势群体”的情景来揭示的,这是当今最根本的问题之一。在计算机科学和社会科学的共同贡献下,旨在利用本研究获得的线索来预测人工智能算法可能产生的社会危险。为了凸显数据带来的潜在社会和大众问题,格布纳的“耕耘理论”被重新解读。为此,我们对Word2Vec、GloVe和ELMO等流行算法及其数据集进行了实验评估。本文强调了结合算法、数据和跨学科评估的整体方法的重要性。这是当今最基本的问题之一。在计算机科学和社会科学的共同贡献下,旨在利用本研究获得的线索来预测人工智能算法可能产生的社会危险。为了凸显数据带来的潜在社会和大众问题,格布纳的“耕耘理论”被重新诠释。为此,我们对Word2Vec、GloVe和ELMO等流行算法及其数据集进行了实验评估。本文强调了结合算法、数据和跨学科评估的整体方法的重要性。这是当今最基本的问题之一。在计算机科学和社会科学的共同贡献下,旨在利用本研究获得的线索来预测人工智能算法可能产生的社会危险。为了凸显数据带来的潜在社会和大众问题,格布纳的“耕耘理论”被重新诠释。为此,我们对Word2Vec、GloVe和ELMO等流行算法及其数据集进行了实验评估。本文强调了结合算法、数据和跨学科评估的整体方法的重要性。它旨在利用本研究中获得的线索来预测人工智能算法可能产生的社会危险。为了凸显数据带来的潜在社会和大众问题,格布纳的“耕耘理论”被重新解读。为此,我们对Word2Vec、GloVe和ELMO等流行算法及其数据集进行了实验评估。本文强调了结合算法、数据和跨学科评估的整体方法的重要性。它旨在利用本研究中获得的线索来预测人工智能算法可能产生的社会危险。为了凸显数据带来的潜在社会和大众问题,格布纳的“耕耘理论”被重新诠释。为此,我们对Word2Vec、GloVe和ELMO等流行算法及其数据集进行了实验评估。本文强调了结合算法、数据和跨学科评估的整体方法的重要性。
更新日期:2023-04-20
down
wechat
bug