مطالعات فضای مجازی و رسانه‌های اجتماعی

مطالعات فضای مجازی و رسانه‌های اجتماعی

مسئولیت کیفری هوش مصنوعی خودمختار با تأکید بر عنصر معنوی در پرتو مطالعات تطبیقی

نوع مقاله : مقاله پژوهشی

نویسندگان
1 گروه حقوق کیفری، دانشگاه نور طوبی، تهران، ایران
2 دانشجوی دوره دکتری حقوق کیفری و جرم شناسی، دانشگاه آزاد، واحد علوم تحقیقات، تهران، ایران
10.22083/cssms.2025.558198.1085
چکیده
این مقاله تلاش دارد به این پرسش پاسخ دهد که آیا سامانه‌های هوش مصنوعی خودمختار می‌توانند دارای عنصر معنوی لازم برای پذیرش مسئولیت کیفری مستقل باشند یا خیر؟ با روش توصیفی تحلیلی با رویکردی تطبیقی، نخست مفاهیم بنیادین هوش مصنوعی ضعیف و قوی و مفهوم خودمختاری و شخصیت حقوقی تشریح می‌شود. سپس سه مدل مسئولیت کیفری شامل «مسئولیت از طریق دیگری»، «نتیجه طبیعی محتمل» و «مسئولیت مستقیم» معرفی و مبانی هر یک بررسی می‌گردد. در ادامه عناصر جرم اعم از رفتار مادی و عنصر معنوی در نظام‌های کیفری منتخب (ایتالیا، اسلواکی، آلمان و ایالات‌متحده) تحلیل‌شده و وضعیت حقوقی آن‌ها در مواجهه با رفتارهای مجرمانه مبتنی بر هوش مصنوعی مولد و خودمختار ارزیابی می‌شود. یافته‌های پژوهش نشان می‌دهد که تاکنون هیچ نظام قضایی هوش مصنوعی را به‌عنوان مرتکب مستقل به رسمیت نشناخته و مسئولیت کیفری عمدتاً بر دوش انسان‌ها (طراحان، کاربران یا مالکان) قرار دارد. قانون اتحادیه اروپا موسوم به قانون هوش مصنوعی ۲۰۲۴، بر لزوم نظارت انسانی و شفافیت تأکید دارد و قانون ملی هوش مصنوعی ایتالیا مصوب ۲۰۲۵ با تشدید مجازات و الزامات شفافیت، استفاده از سامانه‌های پرخطر را سامان‌دهی می‌کند. بر اساس نتایج، در شرایط فعلی فناوری، اعمال مجازات مستقیم بر سامانه‌ها معنای عملی ندارد و پیشنهاد می‌شود از تدابیر نمادین مانند حذف نرم‌افزار یا تعلیق خدمات استفاده شود. نوشتار همچنین بر ضرورت همکاری حقوق‌دانان، مهندسان و سیاست‌گذاران برای اصلاح مفاهیم حقوق کیفری همگام با پیشرفت فناوری تأکید می‌کند.
کلیدواژه‌ها

موضوعات


عنوان مقاله English

Criminal Liability of Autonomous Artificial Intelligence with an Emphasis on the Mental Element in the Light of Comparative Studies

نویسندگان English

behrooz javanmard 1
nooshin heydarifard 2
1 Department of Criminal Law, Noor Tooba University, Tehran, Iran
2 PhD student in Criminal Law and Criminology, Islamic Azad University, Science and Research Branch, Tehran, Iran
چکیده English

Autonomous artificial intelligence (AI) systems challenge core assumptions of criminal law by performing complex actions with minimal human oversight. This paper asks whether such systems can bear the mental element required for criminal liability. Using a comparative method, it first clarifies key concepts such as weak/strong AI, autonomy and legal personhood, and sets out three theories of AI liability: vicarious liability through a human actor, liability based on reasonably foreseeable consequences, and direct liability where the system itself is treated as an offender.in the first model (the perpetration- via another liability model)the AI as an innocent agent such as a child could be used as a vehicle to perpetrate criminal actions.in the second model (the natural-probable-consequence liability model)imposes accountability upon individuals for offences that arise as a natural and foreseeable consequence of their action irrespective of their actual awareness of the offence .at last but not least in the third model theoretically being AI able of self-determination it can have will and knowledge of its specific action in such cases a third scenario approach is necessitated allowing the entity itself to be directly liable of its offences. It then analyses how elements of crime—physical conduct and mens rea—are defined in selected legal systems (Italy, Slovakia, Germany and the United States) and reviews recent legislation and judicial practice. The research draws on statutory analysis, doctrinal scholarship and reported cases. The findings show that no jurisdiction has yet recognised an AI system as an autonomous perpetrator; criminal liability remains anchored in human intent or negligence. While the European Union’s AI Act of 2024 emphasises human oversight, Italy’s 2025 AI Law imposes stricter transparency and harsher penalties for AI assisted offences. The article concludes that, although future technological developments may require doctrinal innovation, current law can address AI related harms through existing concepts of vicarious or negligent liability. Possible sanctions against AI systems are limited to symbolic or functional measures such as deletion of software or suspension of services. The paper advocates continued interdisciplinary collaboration to refine criminal norms as AI evolves.

کلیدواژه‌ها English

Principle of Autonomy
Mental Element
Criminal Behavior
Generative Artificial Intelligence
Independent Criminal Liability
«Autopilot» به سیستم هدایت خودکار هواپیما گفته می‌شود.
American Law Institute (ALI). (1985). Model Penal Code and Commentaries (Official Draft and Revised Comments). Philadelphia: The American Law Institute.
Bryson, J. J., Diamantis, M. E., & Grant, T. D. (2017). Of, for, and by the people: The legal lacuna of synthetic persons. Artificial Intelligence and Law, 25(3), 273-291.
Calo, R. (2016). Robotics and the lessons of cyberlaw. California Law Review, 103(3), 513-563.
European Parliament. (2017). Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103(INL)).
European Union. (2024). Artificial Intelligence Act (Regulation (EU) 2024/1689). Publications Office of the European Union.
Gless, S., Silverman, E., & Weigend, T. (2016). If robots cause harm, who is to blame? Self-driving cars and criminal liability. New Criminal Law Review, 19(3), 412-436. https://doi.org/10.1525/nclr.2016.19.3.412
Hallevy, G. (2010). The criminal liability of artificial intelligence entities - from science fiction to legal social control. Akron Intellectual Property Journal, 4(2), 171-201.
Hallevy, G. (2015). When robots kill: Artificial intelligence under criminal law. University Press of New England.
Linklaters. (2025). Italy - A pioneering national framework to complement the EU AI Act. https://www.linklaters.com
Nemitz, P. (2018). Constitutional democracy and technology in the age of artificial intelligence. Philosophical Transactions of the Royal Society A, 376(2133), 20180089.
Piparo, C., & Blažek, R. (2024). Criminal algorithms and their punishment in modern constitutionalism. Bratislava Law Review, 8(2), 199-222. https://doi.org/10.46282/blr.2024.8.2.832
Sartor, G. (2020). AI and responsibility: A legal perspective. Philosophical Transactions of the Royal Society A, 378(2166), 20190117.
Wang, H., Blok, V., & van Hilten, M. (2025). ELSA Labs for responsible AI: A novel approach for addressing ethical, legal, social issues. Journal of Responsible Innovation, 12(1), 2563944. https://doi.org/10.1080/23299460.2025.2563944

مقالات آماده انتشار، پذیرفته شده
انتشار آنلاین از 07 دی 1404

  • تاریخ دریافت 16 آبان 1404
  • تاریخ بازنگری 07 دی 1404
  • تاریخ پذیرش 07 دی 1404
  • تاریخ اولین انتشار 07 دی 1404
  • تاریخ انتشار 07 دی 1404