هوش مصنوعی در سالهای اخیر توانسته است در حوزههای مختلفی چون شعرسرایی، نقاشی، نگارش مقاله و ساخت موسیقی فعالیت کند. این پیشرفت چشمگیر اما پرسشهای حقوقی مهمی را بهوجود آورده است؛ سوالی که هنوز پاسخ روشنی برای آن وجود ندارد این است که مالکیت آثار تولیدشده توسط هوش مصنوعی به چه کسی تعلق دارد؟ در قوانین فعلی ایران، قانون حمایت حقوق مؤلفان و مصنفان و هنرمندان که در سال ۱۳۴۸ تصویب شده، تنها آثار تولید شده توسط انسانهای حقیقی را به رسمیت میشناسد و هیچ اشارهای به تولیدات غیرانسانی نشده است. به همین دلیل، هوش مصنوعی به عنوان یک شخصیت حقوقی یا حقیقی شناخته نمیشود و نمیتواند مالک اثر باشد، در نتیجه آثار تولیدشده توسط آن در خلأ قانونی قرار دارند.
در عمل، چند سناریوی ممکن برای تعیین مالکیت آثار خلقشده توسط هوش مصنوعی مطرح است؛ اول اینکه مالکیت ممکن است به فرد انسانی تعلق گیرد که با تنظیم دقیق دستورات (پرامپت) اثری را با کمک هوش مصنوعی تولید کرده است، به طوری که برخی آن را به عنوان «پدیدآورنده» میشناسند. دوم اینکه توسعهدهنده یا مالک نرمافزار هوش مصنوعی، مانند شرکتهای سازنده مدلهای معروف، ممکن است مالک اثر تلقی شود. سوم اینکه در نبود دخالت خلاقانه انسان، این آثار ممکن است به مالکیت عمومی یا «Public Domain» تعلق داشته باشند و مشمول حقوق مالکیت فکری نشوند. این وضعیت در سطح جهانی نیز به شکلهای متفاوتی دیده میشود؛ برای مثال دفتر کپیرایت آمریکا، آثار کاملاً خلقشده توسط هوش مصنوعی را مشمول قانون کپیرایت نمیداند، اتحادیه اروپا در حال تدوین مقررات جدیدی برای این موضوع است و چین نیز تلاش میکند بین کاربر انسانی و هوش مصنوعی تفاوت قائل شود.
در حوزه پزشکی، هوش مصنوعی بهطور روزافزونی وارد بخشهای مختلفی مانند تشخیص بیماریها و ارائه پیشنهادهای درمانی شده است. اما این ورود با پرسش مهمی همراه است: اگر هوش مصنوعی اشتباه کند و به بیمار آسیب برسد، مسئولیت حقوقی بر عهده کیست؟ مثالی واقعی این است که اگر سیستمی برای تفسیر تصاویر رادیولوژی اشتباه کند و تومور را تشخیص ندهد و به تبع آن درمان بیمار به تأخیر بیفتد، پیامدهای قانونی این خطا چگونه خواهد بود؟ در قوانین ایران، مسئولیت پزشک مبتنی بر اصل تقصیر و بیاحتیاطی تعریف شده است. بنابراین، اگر پزشک صرفاً بر اساس خروجی هوش مصنوعی تصمیم گرفته و بررسیهای لازم را انجام نداده باشد، احتمالاً مسئول شناخته خواهد شد. در عین حال، درباره مسئولیت شرکت سازنده نرمافزار یا خطای سیستم، قوانین صراحت کافی ندارند و این نوع پروندهها معمولاً بر اساس قواعد عمومی مسئولیت مدنی بررسی میشوند.
هوش مصنوعی در نظام قضایی نیز کاربردهایی یافته است؛ در برخی کشورها از این فناوری برای پیشبینی وقوع جرم، پیشنهاد مجازات و تحلیل رایهای قضات استفاده شده است. هرچند در ایران هنوز استفاده رسمی از این ابزارها رایج نشده است، اما پیشبینی میشود در آیندهای نزدیک با آن مواجه شویم. این موضوع پرسشهای حقوقی و اخلاقی متعددی به دنبال دارد؛ از جمله اینکه اگر قاضی بر پایه تحلیل یک نرمافزار حکم صادر کند و این نرمافزار دچار خطا شود، مسئولیت این اشتباه به عهده کیست؟ استفاده بیش از حد از هوش مصنوعی در فرآیند قضاوت میتواند استقلال قضات را تهدید کند و عدم شفافیت الگوریتمها سوالات جدی در مورد امکان بررسی و اعتراض به تصمیمات اتخاذ شده بر پایه آنها ایجاد میکند. به ویژه اینکه طرفین دعوی چگونه میتوانند نسبت به خروجی الگوریتمی که ساختار و منطق آن برای آنها ناشناخته است اعتراض کنند؟
ضرورت تدوین قوانین جامع برای پاسخ به چالشهای حقوقی هوش مصنوعی
این مسائل نشان میدهد که فناوری هوش مصنوعی هرچند فرصتهای زیادی در زمینههای مختلف ایجاد کرده، اما بدون چارچوبهای قانونی روشن، میتواند با مشکلات و چالشهای حقوقی پیچیدهای مواجه شود که نظام قضایی و حقوقی کشور باید هرچه سریعتر برای آنها راهحلی پیدا کند.
استفاده از هوش مصنوعی در حوزههایی مانند هنر، پزشکی و نظام قضایی، در حالی به سرعت در حال گسترش است که قوانین فعلی ایران هنوز نتوانستهاند پاسخگوی مسائل پیچیده و تازهای باشند که این فناوری ایجاد کرده است. نبود چارچوب مشخص قانونی، زمینهساز بروز چالشهایی شده که میتواند نظم حقوقی را با تهدیداتی جدی روبهرو کند.
در چنین شرایطی، احتمال صدور آرای متضاد در پروندههای مشابه بالا میرود و این موضوع بیثباتی در رویههای قضایی را به دنبال دارد. تداوم این وضعیت، موجب سلب اعتماد عمومی نسبت به فرآیندهای تصمیمگیری میشود؛ بهویژه زمانی که مردم احساس کنند ابزارهایی در حال ایفای نقش هستند که مسئولیتی در قبال نتایج تصمیمات خود ندارند و سازوکار روشنی برای پاسخگویی آنها تعریف نشده است.
از سوی دیگر، فقدان قوانین حمایتی مشخص، کاربران و تولیدکنندگان محتواهای مبتنی بر هوش مصنوعی را در موقعیتی نامطمئن قرار داده است. چه در مورد مالکیت آثار تولیدشده با ابزارهای هوش مصنوعی، و چه در رابطه با آسیبدیدگان ناشی از خطای این فناوریها در حوزههایی مانند پزشکی یا حتی دادرسی، خلأهای قانونی بهوضوح احساس میشود.
در مجموع، به نظر میرسد قانونگذار باید هرچه سریعتر برای تدوین مقرراتی متناسب با تحولات فناورانه اقدام کند؛ مقرراتی که ضمن حمایت از نوآوری، بتواند حقوق شهروندان را نیز بهدرستی تضمین کند. تنها در این صورت است که میتوان از ظرفیتهای هوش مصنوعی در مسیر توسعه بهره گرفت، بدون آنکه عدالت و امنیت حقوقی به خطر بیافتد.






Wednesday, 15 April , 2026