Algorithmic bias

http://dbpedia.org/resource/Algorithmic_bias

التحيز الخورازمي يصف الأخطاء النظامية والمتكررة في نظم الحاسوب التي تؤدي إلى نتائج غير عادلة، مثل تفضيل مجموعة عشوائية من المستخدمين على المجموعات الأخرى. يمكن أن ينشأ التحيز نتيجة عوامل كثيرة، من بينها تصميم الخوارزمية نفسها، أو الاستخدام غير المتوقع أو غير المقصود أو القرارات المتعلقة بكيفية تكويد وجمع وتحليل واستخدام البيانات التي تدرب الخوارزمية. يمكن العثور على التحيز الخوارزمي في منصات من بينها محركات البحث ومنصات التواصل الاجتماعي، وقد يؤدي هذا التحيز إلى تأثيرات تشمل خروقات خصوصية غير مباشرة أو توكيد تحيزات اجتماعية مرتبطة بالعرق ونوع الجنس والتوجه الجنسي والإثنية. وتهتم دراسات التحيز الخورازمي بالخوارزميات التي تعكس تمييزًا نظاميًّا وغير عادل. وفي الآونة الأخيرة، بدأت الأطر القانونية في التصدي لهذا التحيز الخوارزمي، ومن مثل ذلك تشريع النظام الأوروبي العام لحماية البيانات الصادر في rdf:langString
Algorithmic bias describes systematic and repeatable errors in a computer system that create "" outcomes, such as "privileging" one category over another in ways different from the intended function of the algorithm. rdf:langString
El sesgo algorítmico ocurre cuando un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos usados para entrenar el algoritmo. El sesgo algorítmico se puede encontrar en todos lados, como en los resultados de los motores de búsqueda o en las redes sociales y pueden tener un gran impacto en temas como la privacidad o agravar sesgos sociales como los existentes respecto a razas, género, sexualidad o etnias. El estudio del sesgo algorítmico esta enfocado sobre todo en algoritmos que reflejan "discriminación sistemática e injusta". Este tipo de sesgos han empezado a ser tenidos en cuenta en marcos legales recientemente, como el Control de Protección de Datos Generales de la Unión Europea en 2018. rdf:langString
Un biais algorithmique est le fait que le résultat d'un algorithme d'apprentissage ne soit pas neutre, loyal ou équitable. Le biais algorithmique peut se produire lorsque les données utilisées pour entraîner un algorithme d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les services de réseautage social, le respect de la vie privée, et le profilage racial. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux ou culturels, malgré la neutralité supposée des données. Un exemple concret est celui des in rdf:langString
Discriminação algorítmica é um conceito que corresponde ao ato de algoritmos tomarem atitudes discriminatórias ou exclusórias em relação a seres humanos. Estas atitudes podem ser desde simples erros em detecções faciais, até a condenação de um indivíduo por algoritmos jurídicos baseado em suas características raciais. A discriminação algorítmica está diretamente relacionada ao viés algorítmico rdf:langString
rdf:langString تحيز خوارزمي
rdf:langString Algorithmic bias
rdf:langString Sesgo algorítmico
rdf:langString Biais algorithmique
rdf:langString Discriminação algorítmica
xsd:integer 55817338
xsd:integer 1124852791
rdf:langString التحيز الخورازمي يصف الأخطاء النظامية والمتكررة في نظم الحاسوب التي تؤدي إلى نتائج غير عادلة، مثل تفضيل مجموعة عشوائية من المستخدمين على المجموعات الأخرى. يمكن أن ينشأ التحيز نتيجة عوامل كثيرة، من بينها تصميم الخوارزمية نفسها، أو الاستخدام غير المتوقع أو غير المقصود أو القرارات المتعلقة بكيفية تكويد وجمع وتحليل واستخدام البيانات التي تدرب الخوارزمية. يمكن العثور على التحيز الخوارزمي في منصات من بينها محركات البحث ومنصات التواصل الاجتماعي، وقد يؤدي هذا التحيز إلى تأثيرات تشمل خروقات خصوصية غير مباشرة أو توكيد تحيزات اجتماعية مرتبطة بالعرق ونوع الجنس والتوجه الجنسي والإثنية. وتهتم دراسات التحيز الخورازمي بالخوارزميات التي تعكس تمييزًا نظاميًّا وغير عادل. وفي الآونة الأخيرة، بدأت الأطر القانونية في التصدي لهذا التحيز الخوارزمي، ومن مثل ذلك تشريع النظام الأوروبي العام لحماية البيانات الصادر في 2018، أيضًا اقترح المشرعون في الولايات المتحدة قانونًا باسم قانون محاسبة الخوازميات يدعو شركات التقنية إلى إزالة التحيزات في خوارزمياتها.
rdf:langString Algorithmic bias describes systematic and repeatable errors in a computer system that create "" outcomes, such as "privileging" one category over another in ways different from the intended function of the algorithm. Bias can emerge from many factors, including but not limited to the design of the algorithm or the unintended or unanticipated use or decisions relating to the way data is coded, collected, selected or used to train the algorithm. For example, algorithmic bias has been observed in search engine results and social media platforms. This bias can have impacts ranging from inadvertent privacy violations to reinforcing social biases of race, gender, sexuality, and ethnicity. The study of algorithmic bias is most concerned with algorithms that reflect "systematic and unfair" discrimination. This bias has only recently been addressed in legal frameworks, such as the European Union's General Data Protection Regulation (2018) and the proposed Artificial Intelligence Act (2021). As algorithms expand their ability to organize society, politics, institutions, and behavior, sociologists have become concerned with the ways in which unanticipated output and manipulation of data can impact the physical world. Because algorithms are often considered to be neutral and unbiased, they can inaccurately project greater authority than human expertise (in part due to the psychological phenomenon of automation bias), and in some cases, reliance on algorithms can displace human responsibility for their outcomes. Bias can enter into algorithmic systems as a result of pre-existing cultural, social, or institutional expectations; because of technical limitations of their design; or by being used in unanticipated contexts or by audiences who are not considered in the software's initial design. Algorithmic bias has been cited in cases ranging from election outcomes to the spread of online hate speech. It has also arisen in criminal justice, healthcare, and hiring, compounding existing racial, socioeconomic, and gender biases. The relative inability of facial recognition technology to accurately identify darker-skinned faces has been linked to multiple wrongful arrests of black men, an issue stemming from imbalanced datasets. Problems in understanding, researching, and discovering algorithmic bias persist due to the proprietary nature of algorithms, which are typically treated as trade secrets. Even when full transparency is provided, the complexity of certain algorithms poses a barrier to understanding their functioning. Furthermore, algorithms may change, or respond to input or output in ways that cannot be anticipated or easily reproduced for analysis. In many cases, even within a single website or application, there is no single "algorithm" to examine, but a network of many interrelated programs and data inputs, even between users of the same service.
rdf:langString El sesgo algorítmico ocurre cuando un sistema informático refleja los valores de los humanos que están implicados en la codificación y recolección de datos usados para entrenar el algoritmo. El sesgo algorítmico se puede encontrar en todos lados, como en los resultados de los motores de búsqueda o en las redes sociales y pueden tener un gran impacto en temas como la privacidad o agravar sesgos sociales como los existentes respecto a razas, género, sexualidad o etnias. El estudio del sesgo algorítmico esta enfocado sobre todo en algoritmos que reflejan "discriminación sistemática e injusta". Este tipo de sesgos han empezado a ser tenidos en cuenta en marcos legales recientemente, como el Control de Protección de Datos Generales de la Unión Europea en 2018. Tan pronto como los algoritmos expanden su capacidad de organizar la sociedad, la política, las instituciones, y el comportamiento, los sociólogos han empezado a preocuparse con las maneras en que los resultados no previstos y la manipulación de datos pueden impactar el mundo físico. Como los algoritmos son a menudo considerados neutros y sin sesgos, puede parecer que son mejores que los propios humanos, y en algunos casos, relevar trabajo en un algoritmo puede reducir el control humano sobre los resultados. Los sesgos pueden repercutir en los algoritmos teniendo como origen influencias culturales, sociales, o institucionales; debido a limitaciones técnicas de su diseño; o por ser utilizado en contextos no esperados en un principio o por usuarios que no se habían considerado en el diseño inicial del software. Los sesgos algorítmicos han afectado a temas como los resultados de las elecciones. Los problemas de comprensión, investigación, y descubrimiento de sesgos en los algoritmos provienen de la naturaleza de estos, ya que los propietarios no suelen dejar acceder a su implementación, y aunque fuera así, muchas veces son demasiado complejos para entender como funcionan. Además, los algoritmos pueden cambiar, o responder a diferentes entradas de maneras que no pueden ser previstas o fácilmente reproducidas para su análisis. En muchos casos, incluso dentro de un solo sitio web o aplicación, no hay un solo algoritmo para examinar, si no un conjunto de procesos y entradas de datos interrelacionados.
rdf:langString Un biais algorithmique est le fait que le résultat d'un algorithme d'apprentissage ne soit pas neutre, loyal ou équitable. Le biais algorithmique peut se produire lorsque les données utilisées pour entraîner un algorithme d'apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l'utilisation de ces données. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les services de réseautage social, le respect de la vie privée, et le profilage racial. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d'autres biais sociaux ou culturels, malgré la neutralité supposée des données. Un exemple concret est celui des interprètes en ligne qui traduisent systématiquement le terme anglais "nurse" (neutre) en "infirmière" (féminin) et le terme "doctor" (neutre) en "docteur" (masculin). L'étude des biais algorithmiques s'intéresse particulièrement aux algorithmes qui reflètent une discrimination « systématique et injuste »[pourquoi ?]. Le biais algorithmique n'est pas nécessairement une volonté délibérée des concepteurs de l'algorithme de tromper les utilisateurs. Il est d'autant plus important pour ceux-ci d'en avoir conscience que l'usage d'un algorithme biaisé que l'on suppose objectif peut fortement influencer leurs opinions. Cette problématique pose la question du manque de rétrocontrôle des concepteurs d'algorithmes sur leur création déjà soulevée par les ingénieurs des grandes plateformes de l'Internet.
rdf:langString Discriminação algorítmica é um conceito que corresponde ao ato de algoritmos tomarem atitudes discriminatórias ou exclusórias em relação a seres humanos. Estas atitudes podem ser desde simples erros em detecções faciais, até a condenação de um indivíduo por algoritmos jurídicos baseado em suas características raciais. A discriminação algorítmica está diretamente relacionada ao viés algorítmico Em sua maioria, os algoritmos discriminatórios se encontram na área de Inteligência artificial e Aprendizado de máquina nas quais decisões tem de ser tomadas baseadas em um banco de dados de entradas e outras técnicas de aprendizado e de tomada de decisões. Tendo isso em vista, se o banco de entradas para o aprendizado for inadequado para o treino em relação à diversidade, pluralidade e igualdade, ou a função de decisão for baseada em conceitos não éticos, o algoritmo de tomada de decisão pode vir a ter um comportamento discriminatório.
xsd:nonNegativeInteger 106007

data from the linked data cloud