با پیشرفت سریع هوش مصنوعی در ایران، کاربردهای این فناوری در حوزه‌های حساس پزشکی و قضاوت روزبه‌روز گسترده‌تر می‌شود، اما قوانین موجود هنوز نتوانسته‌اند پاسخ روشنی به پرسش‌های پیچیده حقوقی و مسئولیت‌های ناشی از خطاهای احتمالی این فناوری بدهند. این خلاهای قانونی، ابهامات و نگرانی‌هایی را برای پزشکان، قضات و شهروندان به‌وجود آورده است که ادامه روند فعلی را به چالشی بزرگ برای نظام حقوقی کشور تبدیل کرده است.

هوش مصنوعی در سال‌های اخیر توانسته است در حوزه‌های مختلفی چون شعرسرایی، نقاشی، نگارش مقاله و ساخت موسیقی فعالیت کند. این پیشرفت چشمگیر اما پرسش‌های حقوقی مهمی را به‌وجود آورده است؛ سوالی که هنوز پاسخ روشنی برای آن وجود ندارد این است که مالکیت آثار تولیدشده توسط هوش مصنوعی به چه کسی تعلق دارد؟ در قوانین فعلی ایران، قانون حمایت حقوق مؤلفان و مصنفان و هنرمندان که در سال ۱۳۴۸ تصویب شده، تنها آثار تولید شده توسط انسان‌های حقیقی را به رسمیت می‌شناسد و هیچ اشاره‌ای به تولیدات غیرانسانی نشده است. به همین دلیل، هوش مصنوعی به عنوان یک شخصیت حقوقی یا حقیقی شناخته نمی‌شود و نمی‌تواند مالک اثر باشد، در نتیجه آثار تولیدشده توسط آن در خلأ قانونی قرار دارند.

در عمل، چند سناریوی ممکن برای تعیین مالکیت آثار خلق‌شده توسط هوش مصنوعی مطرح است؛ اول اینکه مالکیت ممکن است به فرد انسانی تعلق گیرد که با تنظیم دقیق دستورات (پرامپت) اثری را با کمک هوش مصنوعی تولید کرده است، به طوری که برخی آن را به عنوان «پدیدآورنده» می‌شناسند. دوم اینکه توسعه‌دهنده یا مالک نرم‌افزار هوش مصنوعی، مانند شرکت‌های سازنده مدل‌های معروف، ممکن است مالک اثر تلقی شود. سوم اینکه در نبود دخالت خلاقانه انسان، این آثار ممکن است به مالکیت عمومی یا «Public Domain» تعلق داشته باشند و مشمول حقوق مالکیت فکری نشوند. این وضعیت در سطح جهانی نیز به شکل‌های متفاوتی دیده می‌شود؛ برای مثال دفتر کپی‌رایت آمریکا، آثار کاملاً خلق‌شده توسط هوش مصنوعی را مشمول قانون کپی‌رایت نمی‌داند، اتحادیه اروپا در حال تدوین مقررات جدیدی برای این موضوع است و چین نیز تلاش می‌کند بین کاربر انسانی و هوش مصنوعی تفاوت قائل شود.

در حوزه پزشکی، هوش مصنوعی به‌طور روزافزونی وارد بخش‌های مختلفی مانند تشخیص بیماری‌ها و ارائه پیشنهادهای درمانی شده است. اما این ورود با پرسش مهمی همراه است: اگر هوش مصنوعی اشتباه کند و به بیمار آسیب برسد، مسئولیت حقوقی بر عهده کیست؟ مثالی واقعی این است که اگر سیستمی برای تفسیر تصاویر رادیولوژی اشتباه کند و تومور را تشخیص ندهد و به تبع آن درمان بیمار به تأخیر بیفتد، پیامدهای قانونی این خطا چگونه خواهد بود؟ در قوانین ایران، مسئولیت پزشک مبتنی بر اصل تقصیر و بی‌احتیاطی تعریف شده است. بنابراین، اگر پزشک صرفاً بر اساس خروجی هوش مصنوعی تصمیم گرفته و بررسی‌های لازم را انجام نداده باشد، احتمالاً مسئول شناخته خواهد شد. در عین حال، درباره مسئولیت شرکت سازنده نرم‌افزار یا خطای سیستم، قوانین صراحت کافی ندارند و این نوع پرونده‌ها معمولاً بر اساس قواعد عمومی مسئولیت مدنی بررسی می‌شوند.

هوش مصنوعی در نظام قضایی نیز کاربردهایی یافته است؛ در برخی کشورها از این فناوری برای پیش‌بینی وقوع جرم، پیشنهاد مجازات و تحلیل رای‌های قضات استفاده شده است. هرچند در ایران هنوز استفاده رسمی از این ابزارها رایج نشده است، اما پیش‌بینی می‌شود در آینده‌ای نزدیک با آن مواجه شویم. این موضوع پرسش‌های حقوقی و اخلاقی متعددی به دنبال دارد؛ از جمله اینکه اگر قاضی بر پایه تحلیل یک نرم‌افزار حکم صادر کند و این نرم‌افزار دچار خطا شود، مسئولیت این اشتباه به عهده کیست؟ استفاده بیش از حد از هوش مصنوعی در فرآیند قضاوت می‌تواند استقلال قضات را تهدید کند و عدم شفافیت الگوریتم‌ها سوالات جدی در مورد امکان بررسی و اعتراض به تصمیمات اتخاذ شده بر پایه آن‌ها ایجاد می‌کند. به ویژه اینکه طرفین دعوی چگونه می‌توانند نسبت به خروجی الگوریتمی که ساختار و منطق آن برای آن‌ها ناشناخته است اعتراض کنند؟

ضرورت تدوین قوانین جامع برای پاسخ به چالش‌های حقوقی هوش مصنوعی

این مسائل نشان می‌دهد که فناوری هوش مصنوعی هرچند فرصت‌های زیادی در زمینه‌های مختلف ایجاد کرده، اما بدون چارچوب‌های قانونی روشن، می‌تواند با مشکلات و چالش‌های حقوقی پیچیده‌ای مواجه شود که نظام قضایی و حقوقی کشور باید هرچه سریع‌تر برای آن‌ها راه‌حلی پیدا کند.

استفاده از هوش مصنوعی در حوزه‌هایی مانند هنر، پزشکی و نظام قضایی، در حالی به سرعت در حال گسترش است که قوانین فعلی ایران هنوز نتوانسته‌اند پاسخگوی مسائل پیچیده و تازه‌ای باشند که این فناوری ایجاد کرده است. نبود چارچوب مشخص قانونی، زمینه‌ساز بروز چالش‌هایی شده که می‌تواند نظم حقوقی را با تهدیداتی جدی روبه‌رو کند.

در چنین شرایطی، احتمال صدور آرای متضاد در پرونده‌های مشابه بالا می‌رود و این موضوع بی‌ثباتی در رویه‌های قضایی را به دنبال دارد. تداوم این وضعیت، موجب سلب اعتماد عمومی نسبت به فرآیندهای تصمیم‌گیری می‌شود؛ به‌ویژه زمانی که مردم احساس کنند ابزارهایی در حال ایفای نقش هستند که مسئولیتی در قبال نتایج تصمیمات خود ندارند و سازوکار روشنی برای پاسخ‌گویی آن‌ها تعریف نشده است.

از سوی دیگر، فقدان قوانین حمایتی مشخص، کاربران و تولیدکنندگان محتواهای مبتنی بر هوش مصنوعی را در موقعیتی نامطمئن قرار داده است. چه در مورد مالکیت آثار تولیدشده با ابزارهای هوش مصنوعی، و چه در رابطه با آسیب‌دیدگان ناشی از خطای این فناوری‌ها در حوزه‌هایی مانند پزشکی یا حتی دادرسی، خلأهای قانونی به‌وضوح احساس می‌شود.

در مجموع، به نظر می‌رسد قانون‌گذار باید هرچه سریع‌تر برای تدوین مقرراتی متناسب با تحولات فناورانه اقدام کند؛ مقرراتی که ضمن حمایت از نوآوری، بتواند حقوق شهروندان را نیز به‌درستی تضمین کند. تنها در این صورت است که می‌توان از ظرفیت‌های هوش مصنوعی در مسیر توسعه بهره گرفت، بدون آن‌که عدالت و امنیت حقوقی به خطر بیافتد.