پژوهش های حقوق تطبیقی

پژوهش های حقوق تطبیقی

تأثیر، غوطه‌وری، شدت، ادغام، تعامل: محورهای پنج‌گانه برای آینده حقوق و سیاست‌گذاری هوش مصنوعی

نوع مقاله : مقالات علمی پژوهشی

نویسندگان
1 دانش‌پژوه پسادکتری حقوق جزا و جرم‌شناسی، گروه حقوق، دانشکده ادبیات و علوم انسانی، دانشگاه ملایر، ملایر، ایران.
2 دانشیار گروه حقوق، دانشکده ادبیات و علوم انسانی، دانشگاه ملایر، ملایر، ایران
10.48311/clr.2025.116728.82777
چکیده
مباحث حقوقی و سیاست‌گذاری انتزاعی در مورد تأثیر هوش مصنوعی بر جامعه راکد مانده است. این بدین معنی است که مباحث معاصر در رویکردهای خود به هوش مصنوعی، فرضیات ضمنی را اتخاذ می‌کنند که ویژگی‌های موجودیت، خارجی بودن و انحصاری بودن را پیش‌فرض می‌گیرند؛ به عبارت دیگر، مفهوم هوش مصنوعی از منظر حقوقی و سیاستگذاری در سه دسته قابل بررسی است: 1) هوش مصنوعی به عنوان یک «شیء» {موجود}؛ این دیدگاه هوش مصنوعی را در مقام یک شخص با حقوق و مسئولیت‌های بالقوه در نظر می‌گیرد، 2) هوش مصنوعی به مثابه «دیگری» دیده میشود؛ این دیدگاه بر انسان به عنوان تصمیم‌گیرنده نهایی تأکید می‌کند و هوش مصنوعی را به عنوان ابزاری تحتِ کنترل انسان می‌بیند {هوش مصنوعی به عنوان یک موجود فرعی و متفاوت از انسان دیده می‌شود}،‌ و 3) هوش مصنوعی به منزله یک مصنوع است و بر ویژگیهای مصنوعی آن متمرکز میشود: این دیدگاه بر ساختار فنی هوش مصنوعی تمرکز می‌کند و آن را به عنوان یک مصنوع ساخته دست بشر بدون حقوق ذاتی یا ملاحظات اخلاقی در نظر میگیرد. روی هم رفته، این موارد یک مدل الگویی مضیق از هوش مصنوعی را تشکیل می‌دهند و به طور غیرضروری طیف پاسخ‌های حقوقی و سیاست‌گذاری را به چالش‌ها و فرصت‌های ارائه‌شده توسط این فناوری محدود می‌کنند. به عنوان گامی در جهت تکمیل پاسخ‌های حقوقی و سیاست‌گذاری به هوش مصنوعی، با هدف فراهم کردن تاب‌آوری اجتماعی بیشتر و آمادگی برای اختلالات ناشی از فناوری، ما رویکردی یکپارچه‌تر و موسع در نحوه مدل‌سازی هوش مصنوعی پیشنهاد می‌کنیم: تأثیر، جایی که رفتار انسان هدایت و دست‌کاری می‌شود؛ غوطه‌وری، جایی که تمایز بین واقعیت‌های فیزیکی و مجازی از بین می‌رود؛ شدت، جایی که واقعیت‌ها و تجربیات می‌توانند شدیدتر، طولانی‌تر یا به هر نحو دیگری تغییر کنند؛ ادغام، جایی که مرزهای بین هوش مصنوعی و انسان محو می‌شوند؛ و تعامل، جایی که حلقه‌های بازخورد، مفاهیم خطی بودن و علیت را تضعیف می‌کنند. این محورها انواع مختلفی از روابط انسانی با هوش مصنوعی را نشان می‌دهند و توجه را به پیامدهای حقوقی و سیاست‌گذاری مشارکت در جهان‌های تحت تأثیر هوش مصنوعی جلب می‌کنند. ما این محورهای مفهومی محور‌بندی سیاست‌گذاری را در مثال‌هایی که شامل آسیب هستند، بررسی خواهیم کرد. این موارد نشان می‌دهد که چگونه محور‌های حقوقی و سیاست‌گذاری معاصر بیش از حد محدود و وابسته به مسیرهای تسلی‌بخش قبلی هستند. در این مقاله پیشنهاد میدهیم که لازم است تلاش‌های بیشتری در راستای کشف مسئله برای کسب اطمینان از راهکارهای سیاستمحور (سیاستی) و قواعد حقوقیِ قوی‌تر و انعطاف‌پذیرترِ ناظر بر چالش‌های منبعث از هوش مصنوعی صورت پذیرد.
کلیدواژه‌ها

موضوعات


6. منابع
1.     Agrafiotis I, Nurse JRC, Goldsmith M et al. (2018). A taxonomy of cyber-harms: Defining the impacts of cyber-attacks and understanding how they propagate. Journal of Cybersecurity 4: https://doi. org/10.1093/cybsec/tyy006.
2.     Ananthaswamy A. (2016). Virtual reality could be an ethical minefield – are we ready? New Scientist
3.     Angwin J, Larson J, Mattu S, Kirchner L. (2016). Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica.
4.     Arriaga P, Esteves F, Carneiro P, Monteiro MB. (2008). Are the effects of Unreal violent video games pronounced when playing with a virtual reality system? Aggress Behav 34:521–538.
5.     Balkin JM. (2006). Law and Liberty in Virtual Worlds. In: Balkin J, Noveck BS (eds) The State of Play: Law, Games, and Virtual Worlds. NYU Press, pp 86–117.
6.     Belamire J. (2016). My First Virtual Reality Groping. Medium
7.     Bennett Moses LB. (2007). Why Have a Theory of Law and Technological Change? Minn JL Sci & Tech 8:589–606.
8.     Bennett Moses L. (2016). Regulating in the Face of Sociotechnical Change. In: Brownsword R, Scotford E, Yeung K (eds) The Oxford Handbook of Law, Regulation and Technology. Oxford University Press, Oxford, pp 573–596.
9. Bhuta N, Beck S, Geiβ R et al (eds). (2016). Autonomous Weapons Systems: Law, Ethics, Policy. Cambridge University Press, Cambridge.
10. Booth R. (2014). Facebook reveals news feed experiment to control emotions. The Guardian
11. Brownsword R. (2015). In the year 2061: from law to technological management. Law, Innovation and Technology 7:1–51.
12. Brownsword R. (2016). Technological management and the Rule of Law. Law, Innovation and Technology 8:100–140.
13. Brynjolfsson E, McAfee A (2014) The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company Calo R (2015) Robotics and the Lessons of Cyberlaw. Cal L Rev 103:513.
14. Calo R. (2016). Robots as Legal Metaphors. Harvard Journal of Law & Technology 30:209–237.
15. Cline E. (2011). Ready Player One. Broadway Paperbacks.
16. Danaher J. (2019). Automation and Utopia: Human Flourishing in a World without Work. Harvard University Press.
17. Danaher J. (2020). Axiological Futurism: The Systematic Study of the Future of Human Values.
18. Ford M. (2015). The Rise of the Robots: Technology and the Threat of Mass Unemployment. One World, London.
19. Greyson B. (2021). After: A Doctor Explores What Near-Death Experiences Reveal about Life and Beyond. Bantam Press, London.
21. Hvistendahl M. (2017). Inside China’s Vast New Experiment in Social Ranking. WIRED.
22. Jeffries S. (2018). Jordan Wolfson: “This is real abuse – not a simulation.” The Guardian.
23. Johnson S. (2011). Where Good Ideas Come From: The Seven Patterns of Innovation. Penguin, London.
24. King LW (translator). (2015). The Code of Hammurabi. CreateSpace Independent Publishing Platform.
25. Kramer ADI, Guillory JE, Hancock JT. (2014). Experimental evidence of massive-scale emotional contagion through social networks. PNAS 111:8788–8790.
26. Lastowka FG, Hunter D. (2006a). Virtual Worlds: A Primer. In: Balkin J, Noveck BS (eds) The State of Play: Law, Games, and Virtual Worlds. NYU Press, pp 13–28.
27. Lastowka FG, Hunter D. (2006b). Virtual Crime. In: Balkin J, Noveck BS (eds) The State of Play: Law, Games, and Virtual Worlds. NYU Press, pp 121–136.
28. Lavoie R, Main K, King C, King D. (2021). Virtual experience, real consequences: the potential negative emotional consequences of virtual reality gameplay. Virtual Reality 25:69–81.
29. Legg S, Hutter M. (2007). A Collection of Definitions of Intelligence. arXiv:07063639 [cs]
30. Lessig L. (1999). The Law of the Horse: What Cyber Law Might Teach. Harv L Rev 113:501.
31. Liu H-Y. (2018). The Power Structure of Artificial Intelligence. Law, Innovation and Technology 10:197–229.
32. Liu H-Y. (2019). From the Autonomy Framework towards Networks and Systems Approaches for “Autonomous” Weapons Systems. Journal of International Humanitarian Legal Studies 10:89– 110.
33. Liu H-Y. (2021). AI Challenges and the Inadequacy of Human Rights Protections. Criminal Justice Ethics 40:2–22.
34. Liu H-Y, Maas MM. (2021). ‘Solving for X?’: Towards a problem-finding framework that grounds long-term governance strategies for artificial intelligence. Futures 126:102672.
35. Liu H-Y, Maas M, Danaher J et al. (2020). Artificial Intelligence and Legal Disruption: A New Model for Analysis. Law, Innovation and Technology 12:205–258.
36. MacKellar C. (2019). Cyborg Mind: What Brain-Computer and Mind-Cyberspace Interfaces Mean for Cyberneuroethics. Berghahn, New York/Oxford.
37. Mileva G. (2020). Can Virtual Reality Games Lead To Violent Behavior? AR Post
38. Mistreanu S. (2018). Life Inside China’s Social Credit Laboratory. Foreign Policy.
39. Moshakis A. (2021). What do near-death experiences mean, and why do they fascinate us? The Guardian.
40. Norman DA. (2013). The Design of Everyday Things. MIT Press, Cambridge, Massachusetts
41. Ricker T. (2016). Elon Musk: We’re already cyborgs. The Verge.
42. Rudin C, Radin J (2019) Why Are We Using Black Box Models in AI When We Don’t Need To? A Lesson From An Explainable AI Competition. Harvard Data Science Review 1:1–9.
43. Saxe JG. (1872). The Blind Men and the Elephant. J. Osgood, Boston
44. Susser D. (2019). Invisible Influence: Artificial Intelligence and the Ethics of Adaptive Choice. Architectures. In: Artificial Intelligence, Ethics and Society. Honolulu, Hawaii.
45. Valentish J. (2019). “Real” violence: coming to grips with the ethics of virtual reality brutality. The Guardian.
46. Vaughn R. (2019). Is Virtual Reality the Future of Courtrooms? Oklahoma Bar Association 90:10
47. Veitch S. (2007). Law and Irresponsibility: On the Legitimation of Human Suffering. Routledge Cavendish, Oxford
48.  Wong JC. (2016). Sexual harassment in virtual reality feels all too real – “it’s creepy beyond creepy.” The Guardian.
49. Yeung K. (2017). ‘Hypernudge’: Big Data as a mode of regulation by design. Information, Communication & Society 20:118–136.
50. Zuboff S. (2019). “We Make Them Dance”: Surveillance Capitalism, the Rise of Instrumental Power, and the Threat to Human Rights. In: Jørgensen RF (ed) Human Rights in the Age of Platforms. MIT Press, Cambridge, Massachusetts, pp 3–51.

مقالات آماده انتشار، پذیرفته شده
انتشار آنلاین از 23 اردیبهشت 1405