Collingridge dilemma

http://dbpedia.org/resource/Collingridge_dilemma

Коллінґріджева дилема (англ. Collingridge’s diemma) — сформульована Девідом Коллінґріджем 1980 року дилема, суть якої полягає в тому, що «якщо етичні оцінки робляться до унаочнення технологічного впливу, то важко передбачити останній, а якщо вони робляться, коли технології вже втілено в практику, то виникнуть труднощі щодо контролю за ними». rdf:langString
Das Collingridge-Dilemma (auch „Steuerungs- oder Kontrolldilemma“) ist eine methodische Zwickmühle: Die Versuche, insbesondere der Technikfolgenabschätzung, zur Gestaltung der Technikentwicklung beizutragen, stehen vor einem typischen Doublebind- (Doppelbindungs-) Problem: * ein Informationsproblem: Wirkungen können nicht leicht vorhergesehen werden, solange die Technologie noch nicht ausreichend entwickelt und weit verbreitet ist. * ein Macht- bzw. Umsetzungsproblem: Kontrolle bzw. Gestaltung sind umso schwieriger, desto fester die Technologie verwurzelt ist. rdf:langString
The Collingridge dilemma is a methodological quandary in which efforts to influence or control the further development of technology face a double-bind problem: * An information problem: impacts cannot be easily predicted until the technology is extensively developed and widely used. * A power problem: control or change is difficult when the technology has become entrenched. The idea was coined by David Collingridge, The University of Aston, Technology Policy Unit, in his 1980 book The Social Control of Technology. The dilemma is a basic point of reference in technology assessment debates. rdf:langString
Le dilemme de Collingridge est un dilemme méthodologique dans lequel les efforts pour influencer ou contrôler le développement de la technologie se heurtent à un double problème : * Un problème d'information : les impacts ne peuvent pas être facilement prédits tant que la technologie n'est pas largement développée et utilisée. * Un problème de pouvoir : le contrôle ou le changement est difficile lorsque la technologie s'est ancrée. rdf:langString
科林格里奇困境(英語:Collingridge dilemma)是一种方法学上的窘境,即影响和控制技术的长远发展所面临的一个双重约束困境(double-bind problem): 1. * 信息困境:一项技术的社会后果不能在技术生命的早期被预料到 2. * 控制困境:当不希望的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,以至于对它的控制十分困难。这就是控制的困境。 当变化容易时,对它的需要不能被预测;当变化的需要变得明显时,变化却变得昂贵、困难和耗时间,以致难以或不能改变。这就是所谓科林格里奇困境。 这个思想最先由在阿斯顿大学的技术政策部门的大卫·科林格里奇(David Collingridge)提出,记载于他在1980年发表的《社会管理技术》(The Social Control of Technology)一书中。这个困境是在技术评估(technology assessment)辩论中的一个基准参照点。 在由约翰·布罗克曼编辑的《这解释所有事(This Explains Everything)》 中,技术评论家叶夫根尼·莫罗佐夫在解释科林格里奇的思想时,引用了科林格里奇自己的一段话:“当一个容易的事情被改变时,结果将难以预见。而当需要做出明显的改变时,改变的方法却变得昂贵,困难和消耗时间。 rdf:langString
rdf:langString Collingridge-Dilemma
rdf:langString Collingridge dilemma
rdf:langString Dilemme de Collingridge
rdf:langString Коллінґріджева дилема
rdf:langString 科林格里奇困境
xsd:integer 1290423
xsd:integer 1075761559
rdf:langString Das Collingridge-Dilemma (auch „Steuerungs- oder Kontrolldilemma“) ist eine methodische Zwickmühle: Die Versuche, insbesondere der Technikfolgenabschätzung, zur Gestaltung der Technikentwicklung beizutragen, stehen vor einem typischen Doublebind- (Doppelbindungs-) Problem: * ein Informationsproblem: Wirkungen können nicht leicht vorhergesehen werden, solange die Technologie noch nicht ausreichend entwickelt und weit verbreitet ist. * ein Macht- bzw. Umsetzungsproblem: Kontrolle bzw. Gestaltung sind umso schwieriger, desto fester die Technologie verwurzelt ist. Anders ausgedrückt: Die Aussichten auf sicheres Folgenwissen werden umso besser, je weiter entwickelt die Technik ist, je besser die Produktionsbedingungen, Nutzungskontexte und Entsorgungsverfahren bekannt sind. Allerdings besteht dann keine Möglichkeit mehr, die Technik oder die Technikfolgen gestaltend zu beeinflussen, denn dann ist die Entwicklung bereits abgeschlossen oder wenigstens so weit fortgeschritten, dass aus ökonomischen Gründen ein Umsteuern kaum noch oder nicht mehr möglich ist. Diese Idee wurde erstmals von David Collingridge von der Technology Policy Unit der Universität Aston in seinem Buch aus dem Jahre 1980 The Social Control of Technology formuliert. Das Dilemma ist ein häufiger Referenz- und Ausgangspunkt für Diskussionen in der Technikfolgenabschätzung.
rdf:langString The Collingridge dilemma is a methodological quandary in which efforts to influence or control the further development of technology face a double-bind problem: * An information problem: impacts cannot be easily predicted until the technology is extensively developed and widely used. * A power problem: control or change is difficult when the technology has become entrenched. The idea was coined by David Collingridge, The University of Aston, Technology Policy Unit, in his 1980 book The Social Control of Technology. The dilemma is a basic point of reference in technology assessment debates. In "This Explains Everything," edited by John Brockman, technology critic Evgeny Morozov explains Collingridge's idea by quoting Collingridge himself: "When change is easy, the need for it cannot be foreseen; when the need for change is apparent, change has become expensive, difficult, and time-consuming." In "The Pacing Problem, the Collingridge Dilemma & Technological Determinism" by , a senior research fellow at the Mercatus Center at George Mason University, the Collingridge dilemma is related to the "pacing problem" in technology regulation. The "pacing problem" refers to the notion that technological innovation is increasingly outpacing the ability of laws and regulations to keep up, first explained in Larry Downes' 2009 book , in which he famously states that "technology changes exponentially, but social, economic, and legal systems change incrementally". In Thierer's essay, he tries to correlate these two concepts by saying that "the 'Collingridge dilemma' is simply a restatement of the pacing problem but with greater stress on the social drivers behind the pacing problem and an implicit solution to 'the problem' in the form of preemptive control of new technologies while they are still young and more manageable." One solution to Collingridge dilemma is the "Precautionary Principle." Adam Thierer defines it as the belief that new innovations should not be embraced "until their developers can prove that they will not cause any harm to individuals, groups, specific entities, cultural norms, or various existing laws, norms, or traditions". If they fail to do so, this innovation should be "prohibited, curtailed, modified, junked, or ignored". This definition has been criticized by Kevin Kelly who believe such a principle is ill-defined and is biased against anything new because it drastically elevates the threshold for anything innovative. According to the American philosopher Max More, the Precautionary Principle "is very good for one thing — stopping technological progress...not because it leads in bad directions, but because it leads in no direction at all." But the 1992 Rio Declaration on Environment and Development defines the precautionary principle as ""Where there are threats of serious or irreversible damage, lack of full scientific certainty shall not be used as a reason for postponing cost-effective measures to prevent environmental degradation." So rather than conceived as imposing no change until proof of safety is produced, this definition of the precautionary principle is meant to legitimate protective measures, attempting to avoid the desire of a technology's advocates to delay legislation until irrefutable evidence of harm can be produced. Collingridge's solution was not exactly the precautionary principle but rather the application of "Intelligent Trial and Error," a process by which decision making power remains decentralized, changes are manageable, technologies and infrastructures are designed to be flexible, and the overall process is oriented towards learning quickly while keeping the potential costs as low as possible. Collingridge advocated ensuring that innovation occurs more incrementally so as to better match the pace of human learning and avoiding technologies whose design was antithetical to an Intelligent Trial and Error process.
rdf:langString Le dilemme de Collingridge est un dilemme méthodologique dans lequel les efforts pour influencer ou contrôler le développement de la technologie se heurtent à un double problème : * Un problème d'information : les impacts ne peuvent pas être facilement prédits tant que la technologie n'est pas largement développée et utilisée. * Un problème de pouvoir : le contrôle ou le changement est difficile lorsque la technologie s'est ancrée. Le dilemme est posé par David Collingridge dans son livre The Social Control of Technology (1980). Il est un point de référence fondamental dans les débats sur l'évaluation des technologies . Dans This Explains Everything, édité par John Brockman, le critique technologique Evgeny Morozov explique l'idée de Collingridge en citant celui-ci : « Lorsque le changement est facile, sa nécessité ne peut être prévue ; lorsque le besoin de changement est apparent, le changement est devenu coûteux, difficile et chronophage. » Dans The Pacing Problem, the Collingridge Dilemma & Technological Determinism d'Adam Thierer, chercheur principal au Mercatus Center de l'Université George Mason, le dilemme de Collingridge est lié au dans la réglementation technologique. Cela fait référence à la notion selon laquelle l'innovation technologique dépasse de plus en plus la capacité des lois et des réglementations à suivre, expliquée pour la première fois dans le livre de Larry Downes The Laws of Disruption (2009), dans lequel il déclare que « la technologie change de façon exponentielle, mais les systèmes sociaux, économiques et juridiques changent progressivement ». Dans l'essai de Thierer, celui-ci tente de corréler ces deux concepts en disant que « le "dilemme de Collingridge" est simplement une reformulation du problème de rythme, mais avec un plus grand accent sur les moteurs sociaux derrière le problème de rythme et une solution implicite au "problème" sous la forme d'un contrôle préventif des nouvelles technologies alors qu'elles sont encore jeunes et plus maniables ». Une solution au dilemme de Collingridge est le « principe de précaution ». Adam Thierer le définit comme la conviction que les nouvelles innovations ne doivent pas être adoptées « jusqu'à ce que leurs développeurs puissent prouver qu'elles ne causeront aucun préjudice aux individus, groupes, entités spécifiques, normes culturelles ou diverses lois, normes ou traditions existantes. » S'ils ne le font pas, cette innovation devrait être « interdite, réduite, modifiée, jetée ou ignorée. » Cette définition a été critiquée par Kevin Kelly, qui pense qu'un tel principe est mal défini et est biaisé contre tout ce qui est nouveau car il élève considérablement le seuil d'acceptabilité de tout ce qui est innovant. Selon le philosophe américain Max More, le principe de précaution « est très bon pour une chose : arrêter le progrès technologique... non pas parce qu'il mène dans de mauvaises directions, mais parce qu'il ne mène dans aucune direction. » Mais la Déclaration de Rio sur l'environnement et le développement définit le principe de précaution comme suit : « Lorsqu'il existe des menaces de dommages graves ou irréversibles, l'absence de certitude scientifique complète ne doit pas être invoquée pour justifier le report de mesures rentables visant à prévenir la dégradation de l'environnement. » Ainsi, plutôt que conçue comme n'imposant aucun changement tant que la preuve de la sécurité n'est pas produite, cette définition du principe de précaution vise à légitimer les mesures de protection, en essayant d'éviter le désir des défenseurs d'une technologie de retarder la législation jusqu'à ce que des preuves irréfutables de préjudice puissent être produites. Quant à lui, Collingridge ne proposait pas exactement le principe de précaution, mais plutôt l'application de « essais et erreurs intelligents », un processus par lequel le pouvoir décisionnel reste décentralisé, avec des changements gérables, des technologies et des infrastructures conçues pour être flexibles et un processus global orienté vers un apprentissage rapide tout en maintenant les coûts potentiels aussi bas que possible. Collingridge préconise de veiller à ce que l'innovation se produise de manière plus progressive afin de mieux correspondre au rythme de l'apprentissage humain et d'éviter les technologies dont la conception était antithétique à un processus intelligent d'essais et d'erreurs.
rdf:langString 科林格里奇困境(英語:Collingridge dilemma)是一种方法学上的窘境,即影响和控制技术的长远发展所面临的一个双重约束困境(double-bind problem): 1. * 信息困境:一项技术的社会后果不能在技术生命的早期被预料到 2. * 控制困境:当不希望的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,以至于对它的控制十分困难。这就是控制的困境。 当变化容易时,对它的需要不能被预测;当变化的需要变得明显时,变化却变得昂贵、困难和耗时间,以致难以或不能改变。这就是所谓科林格里奇困境。 这个思想最先由在阿斯顿大学的技术政策部门的大卫·科林格里奇(David Collingridge)提出,记载于他在1980年发表的《社会管理技术》(The Social Control of Technology)一书中。这个困境是在技术评估(technology assessment)辩论中的一个基准参照点。 在由约翰·布罗克曼编辑的《这解释所有事(This Explains Everything)》 中,技术评论家叶夫根尼·莫罗佐夫在解释科林格里奇的思想时,引用了科林格里奇自己的一段话:“当一个容易的事情被改变时,结果将难以预见。而当需要做出明显的改变时,改变的方法却变得昂贵,困难和消耗时间。 在亚当·西艾奥的著作《步调问题,科林格里奇困境和技术决定论(The Pacing Problem, the Collingridge Dilemma & Technological Determinism)》一书中,科林格里奇困境是和科技管理中的”步调问题”相关的。 “步调问题”指的是科技创新的速度大大超过了法律和管理条例的更新速度的问题。 这个问题第一次在拉里·唐尼斯与2009年出版的《破坏定律(The Laws of Disruption)》一书中提出,其中有这样一段著名的论述:“科技是成指数级增长的,但是社会,经济和法律系统只会缓慢增长”。在西艾奥的论文中,他尝试将两种理论融合,提出了“科林格里奇困境只是另一种步调问题,但它相较于步调问题更强调于社会的影响因素,且它还可以看作是步调问题的隐形解决方案,即在新技术尚且稚嫩和可控的时候先发制人。 科林格里奇困境的一种解决方案是“预防原则”。凯文·凯莉(Kevin Kelly)将它定义为:一种新的发明在被它的开发者证明它不会对任何个人,集体,特殊群体,文化规范,或各种既存法律作出危害前不应该被社会所接受的思想。如果它没有做到上述标准,这些新发明应该被禁止,阉割,改造,废弃或无视。凯文·凯莉认为这种思想不明确且富有偏见,因为它极大增加了任何创新的门槛。据美国哲学家马克思·摩尔(Max More)所说,预防原则“中好的一点是它阻止了科技的进步.......不是因为它走向了错误的道路,而是它没有指出任何方向”。但是在1992年里约的环境和发展声明中定义预防原则为“当出现有严重的,不可逆的伤害的风险时,即使它在经济上非常划算,缺少完全科学确定性的理论也不应该被应用或应当被延后来防止环境恶化。所以任何构想在被证实其安全性前应当按兵不动,这个预防原则致力于将保护措施合法化,尝试避免一项科技的提倡者因自身利益而延后其法律法规的建立,导致在出现实质性的破坏或伤害后为时已晚。 科林格里奇困境的解决方案不全是预防原则,而是通过“智能实验和试错”(Intelligent Trial and Error)审核,即决策制定层保持权力分散,将任何变化保持可控,技术和基础设施的设计灵活,和大方向指向快速学习的同时尽可能低的保持潜在成本。科林格里奇提倡技术进步的速度应该维持在线性,使得技术进步的速度和人类学习的速度保持一致,防止出现技术被设计成和“智能实验和试错”审核对立的情况发生。
rdf:langString Коллінґріджева дилема (англ. Collingridge’s diemma) — сформульована Девідом Коллінґріджем 1980 року дилема, суть якої полягає в тому, що «якщо етичні оцінки робляться до унаочнення технологічного впливу, то важко передбачити останній, а якщо вони робляться, коли технології вже втілено в практику, то виникнуть труднощі щодо контролю за ними».
xsd:nonNegativeInteger 5643

data from the linked data cloud