طرح و بررسی برخی از مسائلِ اخلاقیِ هوش مصنوعی در هنر

نوع مقاله : مقاله پژوهشی

نویسنده

گروه فلسفه هنر، دانشگاه علامه طباطبائی، تهران، ایران

چکیده

هدف از پژوهش حاضر، بررسی مسائل اخلاق هوش مصنوعی در حوزۀ هنر است. به‌این‌منظور، با تکیه بر فلسفه و اخلاق هوش مصنوعی، موضوعات اخلاقی که می‌تواند در حوزۀ هنر تأثیرگذار باشد، بررسی شده است. باتوجه‌به رشد و توسعۀ استفاده از هوش مصنوعی و ورود آن به حوزۀ هنر، نیاز است تا مباحث اخلاقی دقیق‌تر مورد توجه پژوهشگران هنر و فلسفه قرار گیرد. برای دست‌یابی به هدف پژوهش، با استفاده از روش تحلیلی‌ـ‌توصیفی، مفاهیمی همچون هوش مصنوعی، برخی تکنیک‌های آن و موضوعات اخلاقی هوش مصنوعی در هنر تبیین و بررسی شده است. نتایج پژوهش نشان می‌دهد موضوعات اخلاقی همچون حریم خصوصی و نظارت، دستکاری در رفتار، تاری و شفافیت، سوگیری در تصمیمات سیستم، و اتوماسیون و اشتغال حوزۀ هنر قابل‌بررسی است. این موضوعات اخلاقی، گاهی درتقابل و گاهی در ارتباط مستقیم و هم‌سو با یکدیگر قرار دارند. بررسی‌ها نشان می‌دهد پاسخ به پرسش‌های اخلاق هوش مصنوعی در حوزۀ هنر، نیازمند پاسخ به پرسش‌های اخلاقی به‌صورت عام در هوش مصنوعی است.

کلیدواژه‌ها

موضوعات


عنوان مقاله [English]

Investigating some ethical issues of artificial intelligence in art

نویسنده [English]

  • Mohammad Ali Ashouri Kisomi
Allameh Tabataba'i University, Tehran, iran
چکیده [English]

The aim of this paper is to explore the ethical implications of artificial intelligence (AI) in the realm of art. Drawing on the philosophy and ethics of AI, this study examines the ethical challenges that may arise in the art domain. Given the increasing use and penetration of AI in the field of art, there is a need for more careful attention to the ethical dimensions of this phenomenon by scholars of art and philosophy. To achieve the objective of the paper, concepts such as AI, some of its techniques, and the ethical issues of AI in art are explained and analyzed using the analytical-descriptive method. The findings of the study reveal that ethical issues such as privacy and surveillance, manipulation of behavior, opacity and transparency, bias in decision systems, and automation and employment can be investigated in the field of art. These ethical issues are sometimes in conflict and sometimes in direct relation with each other. This study suggests that addressing the ethical questions of AI in the field of art requires addressing the ethical questions of AI in general.

کلیدواژه‌ها [English]

  • Artificial intelligence
  • ethics
  • art
  • machine learning
  • ethics of artificial intelligence

1-مقدمه

هوش مصنوعی[1] از زمان کنفرانس دارپا[2] وارد مرحلۀ عملی شد؛ اما در سال‌های اخیر بیشتر مورد توجه پژوهشگران قرار گرفته است. یکی از دلایل این توجه، ورود هوش مصنوعی به جنبه‌های مختلف زندگی انسان است. هوش مصنوعی ضعیف[i]، به بخشی از زندگی روزمرۀ انسان امروزی بدل شده است. در چند سال گذشته، استفاده از هوش مصنوعی در حوزۀ هنر نیز افزایش چشمگیری داشته است. اگرچه در گذشته تصور برخی بر این بود که هوش مصنوعی محدود به استفادۀ هنرمندان از نرم‌افزارها یا برخی از ابزارهاست، فروش اثری که هوش مصنوعی تولید کرده بود، در حراج کریستی[3]، جامعۀ هنری را به بررسی دقیق‌تر واداشت[ii] (Cohn, 2018). این اتفاق، پرسش‌هایی مانند این را پدید آورد که: آیا هوش ‌مصنوعی می‌تواند اثر هنری تولید کند؟ آیا می‌توان هوش مصنوعی را هنرمند خطاب کرد؟ در کنار این‌گونه پرسش‌های معرفت‌شناختی و هستی‌شناختی، با پرسش‌هایِ اخلاقیِ هوشِ مصنوعی هم روبه‌رو هستیم که توجه به آن‌ها نیز از اهمیت فراوانی برخوردار است.

ازنظر تاریخی، هارولد کوهن[4] نخستین هنرمندی بود که از الگوریتم‌ها[5] برای تولید اثر هنری استفاده کرد (Audry & Ippolito, 2019)، این موضوع در زمانی کوتاه تغییرات شگرفی را پشت سر گذاشت و امروزه هنرمندان زیادی از هوش مصنوعی استفاده می‌کنند. گاهی با استفاده از نوآوری‌های تکنولوژیکی یا ابزارهای جدید در مراحل ابتدایی مخالفت می‌شود؛ اما اگر به روند کلی در تاریخ هنر نگاهی بیندازیم، مشاهده می‌کنیم بسیاری از نوآوری‌ها و ابزارها، فرصت‌های جدیدی برای هنرمندان پدید آورده‌اند. استفادۀ یان وان آیک[6] از رنگ روغن، استفاده از سینث‌سایزر[7] در موسیقی، استفاده از دوربین‌های دیجیتال در عکاسی و بسیاری نمونه‌های دیگر، اگرچه در دوره‌ای نوآوری‌هایی محسوب می‌شدند که موردتأیید بخشی از جامعۀ هنری نبودند، به‌سرعت جای خود را میان هنرمندان باز کردند (Hertzmann, 2018). معلوم نیست در آینده نقش هوش مصنوعی در حوزۀ هنر چه میزان خواهد بود؛ اما به ‌نظر نمی‌رسد تأثیر آن قابل‌چشم‌پوشی باشد.

پژوهش‌های متعددی به استفاده از هوش مصنوعی در حوزۀ هنر پرداخته‌اند که ازجملۀ آن‌ها می‌توان به پژوهش‌ هونگ و کوران (۲۰۱۹)، مازون و الگامال (۲۰۱۹)، نورتون و همکاران (۲۰۱۳) و الگامال (۲۰۱۹)  اشاره کرد. در حوزۀ اخلاق و فلسفۀ هوش مصنوعی، پژوهش‌های بیشتری به چشم می‌خورد که ازجملۀ آن‌ها می‌توان به پژوهش دیگنام (۲۰۱۸)، اتزیونی و اتزیونی (۲۰۱۷) و نسیم و همکاران (۲۰۲۲) اشاره کرد. در این میان، معدود پژوهش‌هایی به بررسیِ اخلاقِ هوشِ مصنوعی و هنر همت گمارده‌اند که عمدتاً نیز به موضوع حق مالکیت معنوی پرداخته‌اند. ازاین‌دست پژوهش‌ها می‌توان به پژوهش لی (۲۰۲۳) و میرنیکی و ان‌جی (۲۰۲۱) اشاره کرد. باوجود گسترۀ وسیع پژوهش دربارۀ هوش مصنوعی، با خلأ پژوهش‌هایی روبه‌رو هستیم که به بررسی و شناخت موضوعات و ابعاد گوناگون اخلاق هوش مصنوعی در حوزۀ هنر بپردازند.

هدف از پژوهش حاضر بررسی و ارائۀ پیش‌درآمدی از مباحث و چالش‌های اخلاقی هوش مصنوعی در حوزۀ هنر است. اهمیت این پژوهش در بررسی مباحث اخلاق هوش مصنوعی در هنر است که کمتر مورد توجه پژوهشگران قرار گرفته است. البته در این مسیر دشواری‌ها و محدودیت‌هایی نیز وجود داشت. برای مثال، یک دشواری دراین‌زمینه، نیاز به دانش میان‌رشته‌ای است. برای چنین پژوهش‌هایی، آشنایی با اصول و ساختار هوش مصنوعی، فلسفه و اخلاق هوش مصنوعی و هنر معاصر اهمیت دارد. برای دست‌یابی به هدف یادشده، پژوهش حاضر به سه بخش تقسیم‌بندی شده است. پیش از هرچیز نیاز است شناختی حداقلی از مفاهیم حوزۀ هوش مصنوعی به‌ دست آید؛ به‌همین‌علت، در بخش اول مفاهیم پایه‌ای همچون هوش مصنوعی، یادگیری ماشین[8] و شبکه‌های مولد رقابتی[9] و شبکه‌های خلاق رقابتی[10] معرفی می‌شوند[iii]. پس از آشنایی با اصطلاحات و تکنیک‌های هوش مصنوعی، در بخش دوم به بررسی موضوعات اخلاقی هوش مصنوعی پرداخته می‌شود. به‌این‌منظور، چندین موضوع اخلاق هوش مصنوعی همراه با ذکر مثال شایان توجه قرار می‌گیرد. پس از آنکه مباحث و موضوعات اخلاقی هوش مصنوعی در هنر بررسی شد، در بخش سوم به بحث و بررسی ارتباطات و آثار مباحث مطرح‌شده در بخش دوم پرداخته می‌شود.

۲. هوش مصنوعی

ابتدا باید بدانیم مقصود از هوش مصنوعی دقیقاً چیست. پژوهشگران متعدد، تعاریف مختلفی از هوش مصنوعی ارائه کرده‌اند. برخی هوش مصنوعی را شاخه‌ای از علوم کامپیوتر می‌دانند که بر خودکاریِ رفتارِ هوشمند متمرکز است (Luger, 2011: 1)؛ برخی آن‌ را مطالعۀ ماشین‌هایی می‌دانند که قادر به احساس‌کردن، تصمیم‌گیری و عمل مانند انسان است (Mondal, 2020) و برخی دیگر نیز آن را حوزه‌ای برای ساخت سیستم‌هایی می‌دانند که مانند انسان فکر/عمل کند (Russel & Norvig, 2020: 1-2). این‌گونه تعاریف، خود آغازگر مباحث معرفت‌شناختی است که از موضوع پژوهش حاضر خارج است[iv]. در پژوهش حاضر، با استفاده از تعریف دایرة‌المعارف فلسفی استنفورد، هوش مصنوعیْ نوعی سیستمِ محاسباتیِ مصنوعی در نظر گرفته می‌شود که برای دست‌یابی به هدف یا اهدافی، رفتارهای «هوشمند» و نه الزاماً به‌مانند هوشمندی انسان انجام می‌دهد (Muller, 2021).

۱-۲. یادگیری ماشین

در هوش مصنوعی از تکنیک‌های مختلفی استفاده می‌شود که یکی از مهم‌ترین آن‌ها یادگیری ماشین است؛ اما به‌واقع، یادگیری ماشین چیست؟ برای پاسخ به این پرسش، باید به یادگیری انسان رجوع کنیم. یکی از روش‌هایی که انسان‌ براساس آن می‌آموزد و اتفاقات را پیش‌بینی می‌کند، یادگیری برپایۀ تجربه است. اگر بخواهیم که سیستم‌ کامپیوتری از همین روش قادر به یادگیری و پیش‌بینی باشد، باید از داده‌ها[11] استفاده کنیم. به‌بیانی دیگر، سیستم کامپیوتری (ماشین) با دریافت داده‌ها تجربه می‌کند. وظیفۀ یادگیری ماشین، توسعۀ الگوریتم‌های یادگیری است. این الگوریتم‌ها باید از روی داده‌ها مدل بسازد و به‌وسیلۀ‌ آن مدل پیش‌بینی کند. در اینجا باید توجه داشت که مفهوم یادگیری ماشین با انسان متفاوت است و نباید این دو را یکسان دانست. در این‌گونه تعاریف مقصود این است که روندی مشابه با تجربۀ انسان در ماشین صورت می‌گیرد که برپایۀ آن ماشین قادر است در موارد مشخصی رفتار/عملی مشابه انسان را اتخاذ کند (Bringsjord et al., 2017). پُر واضح است که در اینجا مشابهت به‌معنای این‌همانی و یکسان‌بودن یادگیری نیست و تأکید بر شباهت (الگوبرداری) روند و نتیجۀ یادگیری است.

برای روشن‌شدن تعریف فوق، ذکر مثالی می‌تواند مفید واقع شود. فرض کنید می‌خواهیم ماشین بیاموزد که پرتقال چیست و در مواجهه با داده‌های یک میوه بتواند تشخیص دهد که پرتقال است یا خیر. برای این منظور، ابتدا مجموعه‌ای از داده‌های میوه‌ها‌ جمع‌آوری می‌شود. برای مثال، m تعداد میوه تهیه می‌کنیم تا از داده‌های آن‌ها استفاده کنیم. پس ما مجموعه‌ای از m تعداد دادۀ میوه (X) داریم و نام مجموعۀ داده‌ها[12] را D می‌گذاریم. مجموعۀ کل داده‌های میوه‌ها به‌صورت زیر خواهد بود:

D={X1, X2, X3, … Xm}

میوه‌ها ویژگی‌های مختلفی دارند و ماشین ما باید از روی ویژگی‌های گوناگون بتواند پرتقال را از سایر میوه‌ها تشخیص دهد. برای مثال شکل، رنگ، بافت و سایر ویژگی‌های میوه‌ها با یکدیگر متفاوت هستند و از مجموع این ویژگی‌هاست که می‌توان پرتقال را از سایر میوه‌ها تشخیص داد. اگر میوه‌ها دارای d تعداد ویژگی‌ باشند، هر میوه (Xi) در مجموعۀ میوه‌ها (D)، مجموعه‌ای از ویژگی‌هایی به‌صورت زیر دارد:

Xi={Xi1, Xi2, Xi3, … Xid}

پس مجموعۀ کل داده‌های تمامی میوه‌های ما به‌صورت زیر درمی‌آید:

D={(X11, X12, …, X1d), (X21, X22, …, X2d), …, (Xi1, Xi2, …, Xid)}

برای اینکه ماشین از روی داده‌ها یاد بگیرد، می‌توان روش‌های مختلفی به‌ کار برد؛ برای مثال، می‌تواند یک برچسب[13] به داده‌های ویژگی میوه اضافه کرد تا ماشین از روی آن بداند ویژگی‌ها مربوط به پرتقال است یا خیر؛ چیزی مشابه مجموعۀ زیر:

D= {((X11, X12, …, X1d), Yes), ((X21, X22, …, X2d), No), …, ((Xi1, Xi2, …, Xid), Yes)}[v]

داده‌های موجود برای پرتقال دربرابر داده‌های سایر میوه‌ها دارای الگوهای مشخصی است. کار ماشین این است که ویژگی‌های پرتقال را شناسایی کند و بداند چه ویژگی مربوط به پرتقال است و چه ویژگی‌هایی مربوط به آن نیست[vi]؛ بنابراین، ماشین در جریان یادگیری به الگوها و مدل‌هایی دست پیدا می‌کند که پیش‌تر به آن نداده‌ بودیم؛ بلکه ماشین از روی داده‌ها، مدل مربوط به پرتقال را ساخته است یا به‌عبارتی یاد گرفته است (Zhou, 2021: 2-4). پس زمانی که ماشین با داده‌های دیگری روبه‌رو می‌شود، می‌تواند آن‌ها را با مدل خود بررسی کند و ببیند آیا این داده‌ها می‌توانند داده‌های مربوط به یک پرتقال باشند یا خیر[vii].

۱-۱-۲. شبکه‌های مولد رقابتی

در سال ۲۰۱۴ میلادی، چهارچوب[14] شبکه‌های مولد رقابتی به‌عنوان یکی از تکنیک‌های یادگیری ماشین معرفی شد. در این تکنیک، دو مدل (شبکه) یادگیری مولد[15] و تشخیص‌دهنده[viii] وجود دارند (Goodfellow et al, 2020). این دو شبکه برای رسیدن به تعادل نش[ix] با الهام از نظریۀ بازی[x] با یکدیگر رقابت می‌کنند. برای درک دقیق‌تر این تکنیک ذکر یک مثال مفید خواهد بود.

فرض کنید می‌خواهیم با ماشین تصاویری جدید از صورت یک انسان تولید کنیم. مطابق با آنچه در بخش پیش گفته شد، ماشین باید بیاموزد که تصویر صورت انسان چه ویژگی‌هایی دارد که بتواند از روی آن مدل بسازد و سپس تصویری مطابق با آن تولید کند. در چنین شرایطی تولید یک تصویر جدید با همان ویژگی‌های داده‌های موجود (تصاویر انسان) لازم خواهد بود؛ اما برمبنای آنچه در مبحث یادگیری ماشین مطرح شد، این‌ کار را نمی‌توانیم با همان تکنیک یادگیری انجام دهیم. به‌عبارتی دیگر، باید بررسی شود که تصویری خروجی ماشین از صورت انسان ۱. ویژگی‌های تصاویر واقعی از صورت انسان را دارد و ۲. نمی‌توان تصاویر خروجی ماشین را از تصاویر واقعی صورت انسان تشخیص داد. برای انجام این ‌کار و حل دو مشکل یادشده، شبکۀ مولد تلاش می‌کند تا یک مدل از تصویر صورت انسان تولید کند که شبکۀ تشخیص‌دهنده را فریب دهد و این شبکه نتواند تشخیص دهد که تصویر را ماشین تهیه کرده است. درمقابل، شبکۀ تشخیص‌دهنده تلاش می‌کند تصاویر واقعی و تصاویری را که شبکۀ مولد ایجاد کرده، از هم تمییز دهد. در مراحل ابتدایی، شبکۀ تشخیص‌دهنده می‌تواند به‌سادگی این تصاویر را تمییز دهد؛ اما با هر تشخیص، شبکۀ مولد بازخوردی از شبکۀ تشخیص‌دهنده دریافت می‌کند. باتوجه‌به این بازخورد، شبکۀ مولد تلاش می‌کند خود را تقویت کند و تصاویری تولید کند که غیرواقعی‌بودن آن‌ها قابل‌تشخیص نباشد (Kammoun et al,. 2022). این روند آن‌قدر انجام می‌شود تا زمانی که تشخیص‌دهنده نتواند میان تصویر شبکۀ مولد و تصویر واقعی تشخیص دهد و آن‌گاه تصویری جدید (غیرواقعی) از انسان تولید کرده است. این روند چیزی شبیه به دیاگرام زیر خواهد بود:

۱-۱-۱-۲. شبکه‌های خلاق رقابتی

شبکه‌های خلاق رقابتی، یکی از اشکال شبکه‌های مولد رقابتی هستند. هدف از این تکنیک، رسیدن به خروجی‌هایی از ماشین است که خلاقانه باشند. باتوجه‌به توضیحات قسمت پیشین، می‌دانیم که شبکۀ مولد تلاش می‌کند تصویری تولید کند که شبکۀ تشخیص‌دهنده نتواند غیرواقعی‌بودن آن را تشخیص دهد؛ اما زمانی که از اثر هنری سخن می‌گوییم، معمولاً سخن از خلاقیت به میان می‌آید؛ پس باید تصویری تولید شود که غیرواقعی‌بودن آن قابل‌تشخیص نباشد و هم‌زمان خلاقانه هم باشد. در شبکه‌های مولد رقابتی می‌توانستیم تصاویری شبیه‌سازی‌شده تولید کنیم؛ اما تصاویر نمی‌توانستند خلاقانه باشند. همین موضوع دستمایۀ طراحی شبکه‌های رقابتی خلاق شد است.

اگر به تاریخ هنر رجوع کنیم، می‌دانیم که در گذشته، هنرمندان آثار خود را عموماً در سبک‌های گوناگون خلق می‌کردند؛ اما امروزه آن‌ها چندان درگیر سبک‌های هنری نیستند. اگر به‌دنبال تولید تصویری بودیم که مثلاً بتوانیم آن را یک اثر امپرسیونیستی بخوانیم، احتمالاً با شبکه‌های مولد رقابتی می‌توانستیم چنین کاری کنیم. کافی بود تا در زمان آموزش به تصاویر شبکۀ تشخیص‌دهنده برچسب سبک را اضافه کنیم (Elgammal et al., 2017, 4-5)؛ البته کماکان این تصاویر نمی‌توانستند خلاقانه باشند.

در هنر معاصر، هنرمندان کمتر بر سبک‌ها تمرکز دارند و به‌عبارتی، سبک آثار آن‌ها در مقایسه با هنرمندان دوران گذشته مبهم است. اگر بخواهیم تصویری تولید کنیم که شبیه به آثار هنری معاصر باشد، از شبکه‌های خلاق رقابتی استفاده می‌شود. در یکی از شناخته‌شده‌ترین پیشنهادها برای شبکه‌های خلاق رقابتی، شبکۀ مولد باید دو بازخورد از شبکۀ تشخیص‌دهنده بگیرد: اول اینکه آیا تصویر را می‌توان در دستۀ تصاویری قرار داد که ویژگی‌های اثری هنری داشته باشند یا خیر، و دوم، آیا تصویر تولیدشده، سبکی مبهم (نامشخص) دارد یا خیر[xi]. درعمل، مولد باید بتواند به سه هدف برسد: ۱. تصاویری جدید تولید کند؛ ۲. تصاویر نباید بیش از اندازه جدید به نظر برسد و دور از انتظار مخاطب انسانی باشد[xii]؛ و ۳. تصویر سبکی مبهم داشته باشد (Ibid: 5-6). این روند چیزی مشابه دیاگرام زیر خواهد بود:

با استفاده از این روش، می‌توان تصاویری مشابه با آثار بصری هنرمندان تولید کرد. البته ذکر مثال دربارۀ تصاویر را نباید به‌این‌معنا در نظر گرفت که از تکنیک‌های یادشده فقط در هنرهای بصری استفاده می‌شود. برای نمونه، در حوزۀ موسیقی نیز نمونه‌هایی ازاین‌دست تکنیک‌ها وجود دارد که از روندی مشابهِ روند یادشده استفاده می‌کنند (Briot & Pachet, 2020).

اکنون که با اصلاحات و برخی از روش‌های هوش مصنوعی آشنایی حداقلی به ‌دست آمد، نیاز است تا بدانیم موضوعات اخلاقی آن در هنر چه موضوعاتی هستند و چگونه ممکن است بروز پیدا کنند.

۳. اخلاق هوش مصنوعی و هنر

در پژوهش‌های فلسفه و اخلاق هوش مصنوعی، عموماً مباحث و موضوعات مشخصی در بیشتر آثار مطرح می‌شود. موضوعاتی همچون حریم خصوصی و نظارت[16]، دستکاری در رفتار[17]، تاری[18] و شفافیت[19]، سوگیری در تصمیمات سیستم[20]، اتوماسیون و اشتغال[21]، سیستم‌های خودمختار[22] و تکینگی[23] ازجمله پرتکرارترین موضوعات هستند[xiii] (Muller, 2021). برخی از همین موضوعات در حوزۀ هنر نیز مورد توجه قرار خواهد گرفت. به‌منظور تبیین بهتر، تلاش شده است تا هر مبحث با ذکر مثال‌هایی در حوزۀ هنر، روشن‌تر شود.

۱-۳. حریم خصوصی و نظارت

بیشتر مباحث مربوط به حریم خصوصی و نظارت در هوش مصنوعی، مربوط به دسترسی به داده‌های خصوصی و داده‌هایی است که می‌توانند هویت فردی را با پردازش آن‌ها فاش کنند. با گسترش استفاده از تکنولوژی‌های حسگر و ذخیرۀ داده‌ها به‌صورت دیجیتال، امکان جمع‌آوری هوشمند و تجزیه‌وتحلیل داده‌ها افزایش چشمگیری پیدا کرده است. امروزه، داده‌ها معمولاً به‌عنوان کارمزد میان شرکت‌ها تبادل می‌شوند. به‌عبارتی دیگر، شرکت‌ها در جریان استفادۀ کاربران از هوش مصنوعی اقدام به جمع‌آوری داده‌های گوناگونی می‌کنند. این داده‌ها به‌علت اینکه اطلاعات فراوانی را شامل می‌شوند، ارزشمند محسوب می‌شوند و شرکت‌های مختلف گاهی این داده‌ها را با یکدیگر تبادل می‌کنند. اکنون دانستن اینکه چه کسی داده‌ها را جمع‌آوری می‌کند و به آن‌ها دسترسی دارد، بسیار دشوار است (Muller, 2021). پژوهش‌های مختلف نشان می‌دهد نگرانی از دسترسی به داده‌ها، ذخیره و تجزیه‌وتحلیل آن‌ها موضوعاتی بسیار جدی هستند (Kozyreva et al., 2020) که نمی‌توان به‌سادگی از آن‌ها‌ گذر کرد.

مثال: یکی از نگرانی‌های هنرمندان هنرهای بصری این است که هوش مصنوعی از سبک هنری آن‌ها بدون اطلاع و اجازه تقلید ‌کند. ممکن است تصور شود تقلید از سبک خصوصی هنرمندان بدون استفاده از هوش مصنوعی نیز امکان‌پذیر است و اتفاقی جدید رخ ‌نمی‌دهد. باید توجه داشت هر هنرمند (X) برای خلق اثر هنری علاوه بر ذوق خود، وقت و هزینه صرف می‌کند؛ درحالی‌که هوش مصنوعی می‌تواند تقلید از آثار X را در کمتر از چند ثانیه انجام دهد. X برای رسیدن به سبک مخصوص به خود گاهی ممکن است سال‌ها زمان بگذارد. حتی اگر هنرمندی دیگر (Y) بخواهد از سبک X تقلید کند، این موضوع نیازمند تلاش و صرف زمان بوده و ممکن است به‌دشواری محقق شود. حال آنکه هوش مصنوعی، قادر است بسیار بیش از Y در آثار X الگو بیابد و این امکان را پدید می‌آورد که تولید اثری در سبک شخصی X در زمان کوتاهی امکان‌پذیر باشد. برای روشن‌شدن این موضوع فرض کنید که X تصاویر آثار نقاشی خود را برای آموزش در اختیار طراحان هوش مصنوعی قرار می‌دهد تا یک ماشین طراحی کنند که نقاشی‌کردن را بیاموزد. آنچه X می‌داند، این است که اطلاعاتْ فقط به‌هدف آموزش استفاده می‌شود و کاربرد دیگری نخواهد داشت و اطلاعات او نیز فاش نمی‌شود و با این دانسته‌ها X اعلام می‌کند با رضایت آگاهانه[24] نقاشی‌های خود را در اختیار طراحان قرار داده است. خطر آن است که براثر استفادۀ بد طراحان آثار X را برای تولید آثاری انبوه در سبک او و نه‌تنها برای یادگیری استفاده کنند. این موضوع می‌تواند ارزش مالی خرید آثار X را به‌علت تولید انبوه به‌شدت کاهش دهد. همین امر موجب شده است تا پژوهشگران و متخصصان هوش مصنوعی به‌دنبال یافتن راهکارهایی فنی باشند که بتوانند از این موضوع جلوگیری کنند. برای نمونه، ‌می‌توان به برخی تکنیک‌های هوش مصنوعی مانند «Glaze» اشاره کرد که با تغییرات الگوریتمی در تصاویر آثار هنرمندان، آن‌ها را برای شبکه‌های مولد رقابتی غیرقابل‌بررسی می‌کنند و امکان تقلید آثار را کاهش می‌دهند. بااین‌حال، باید توجه داشت که تکنیک‌های محافظت‌کننده از حریم خصوصی هنرمندان باید همواره برای تکنولوژی‌های جدید هوش مصنوعی به‌روزرسانی شود و دست‌آخر نیز ممکن است در تمامی موارد نتوانند عملکردی موفقیت‌آمیز از خود نشان دهند (Shan et al,. 2023).

زمانی که از حریم خصوصی صحبت می‌شود، اطلاعاتی که X در اختیار طراحان قرار داده است، ممکن است نتایج دیگری هم برای او داشته باشد. با استفاده از تحلیل داده‌ها[25] و دسترسی به کلان‌داده‌ها[26] می‌توان به اطلاعات فراوانی دست ‌یافت که پیش‌تر از وجودشان هیچ اطلاعی نداشته‌ایم و این موضوع با عنوان تاری عمیق[27] شناخته می‌شود. همان‌طور که ذکر شد، بسیاری از داده‌ها در میان شرکت‌های مختلف تبادل می‌شوند. حال برای روشن‌شدن چالش، دوباره به مثال باز می‌گردیم. فرض کنید در نقاشی‌های X که برای آموزش در اختیار طراحان گذاشته شده، مشاهده می‌کنیم که در میان رنگ‌های مختلف، او از رنگ قرمز در آثار خود استفاده می‌کند. این‌ داده‌ها به‌خودی‌خود شاید چیز زیادی را نشان ندهد؛ اما زمانی که داده‌ها میان طراحان به اشتراک گذاشته می‌شود، موضوع کمی متفاوت است. مثلاً فرض کنید در جایی دیگر X اقدام به خرید لباس کرده و برخی از لباس‌های او قرمز است. در اینجا داده‌های خرید او در جایی دیگر ثبت شده است؛ اما این داده‌ها هم اطلاعات زیادی را فاش نمی‌کنند. در تاریخچۀ اطلاعات زندگی X و در تصاویری که در شبکه‌های اجتماعی منتشر کرده، مشخص می‌شود یکی از عزیزان او در ماشینی که به‌رنگِ قرمز بوده است، تصادف کرده و جان خود را از دست داده‌ است. ممکن است X از مفهومی که رنگ قرمز برای او دارد، به‌صورت خودآگاهانه مطلع نباشد؛ اما با وجود کلان‌داده‌ها و تحلیل داده‌ها مثلاً می‌توان به این موضوع دست یافت که رنگ قرمز در ناخودآگاه X یادآور خاطرات غم‌انگیز است. برای مثال، در آثار هنری X که رنگ قرمز به ‌کار رفته، موضوعْ شامل سویه‌های غم است و لباس‌های قرمز را زمان‌هایی می‌پوشد که بیشتر غمگین است. این اطلاعات را نه X دربارۀ خود دارد و نه هیچ‌کدام از ابزارهای هوش مصنوعی که اطلاعات او را جمع‌آوری کرده‌اند، به‌تنهایی از وجودشان مطلع بودند؛ بلکه این اطلاعات از روی کلان‌داده‌ها و با تحلیل داده‌ها قابل‌دست‌یابی است؛ بنابراین، اینجا فقط دسترسی به داده‌ها مطرح نیست؛ بلکه اطلاعات فراوانی که می‌توان دربارۀ سایر داده‌ها به ‌دست آورد، اهمیت فوق‌العاده‌ای دارد[xiv].

۲-۳. دستکاری در رفتار

مباحث دسترسی به داده‌ها و حریم خصوصی، گاهی به دستکاری در رفتار نیز اشاره دارند. باوجود داده‌های کافی از افراد، گاهی فقط یک تلنگر کافی است تا آن‌ها تحت‌تأثیر قرار گیرند. سوگیری‌های رفتاری، فریب و ایجاد اعتیاد از ابزارهای تبلیغ‌کنندگان و بازاریاب‌های برخط[28] است. حتی شاید بتوان گفت دستکاری در رفتار یکی از مدل‌های عمومی کسب‌وکار برخط است. به‌صورت خلاصه، دستکاری در رفتار زمانی رخ می‌دهد که با استفاده از دسترسی به اطلاعات، در رفتار و تصمیمات فرد تغییر ایجاد شود (Muller, 2021). البته این دستکاری ممکن است ناآگاهانه رخ دهد.

مثال: یک نمونۀ شناخته‌شده از این مبحث را می‌توان در «ماشین متقاعدسازی[29]» مشاهده کرد که آن را دو هنرمند با نام‌های لورن لی‌مک‌کارتی[30] و دیوید لئونارد[31] طراحی کردند. ماشین متقاعدسازی درحقیقت یک هوش مصنوعی است که برای دستکاری احساسات و اعمال بازدیدکنندگان یک نمایشگاه هنری با استفاده از تشخیص چهره، حسگرهای زیستی[32] و دستیارهای صوتی طراحی شده است. ماشین متقاعدسازی از ابتدای ورود افراد به نمایشگاه یک پروندۀ شخصی[33] برای هر بازدیدکننده براساس حالات چهره، ضربان قلب و پاسخ به پرسش‌ها ایجاد می‌کند. سپس، ماشین متقاعدسازی تلاش می‌کند باتوجه‌به پروندۀ شخصی که از افراد دارد، با پخش موسیقی، تغییر نور و ارائۀ پیشنهاد ازطریق دستیار صوتی، بر روحیه و رفتار آن‌ها تأثیر بگذارد (Stocker et al,. 2021). فرض کنید در یک نمایشگاه آثار هنری از چنین ماشینی استفاده می‌شود. ماشین قادر است براساس داده‌هایی که از بازدیدکنندگان نمایشگاه دریافت می‌کند، رفتار آن‌ها را دستکاری کند. برای مثال، فردی که چنین ماشینی را کنترل می‌کند (X)، می‌تواند برخورد مخاطبان نمایشگاه را با دو اثر مختلف که یکی را A می‌نامیم و دیگری را B کنترل کند. مثلاً X می‌تواند با تأثیرگذاری بر منتقد (Y)، اثر A را مورد پسند و ستایش او قرار دهد و یا Y را دربرابر اثر B خشمگین کند و از نقد منصفانۀ B باز دارد. در چنین شرایطی Y تصور می‌کند احساسات او دربرابر آثار ناشی از دلایل بیرونی نبوده و دریافتی است که از A و B به‌ دست آورده است.

 

۳-۳. تاری و شفافیت

همان‌طور که ذکر شد، تکنیک‌های یادگیری ماشین از روی مجموعۀ‌ داده‌ها، الگوهای گوناگونی استخراج می‌کنند. باید توجه کرد که یادگیری ماشین عموماً به سه شیوه انجام می‌شود که با عنوان پارادایم‌های[34] یادگیری از آن‌ها یاد می‌شود: یادگیری نظارتی[xv]، یادگیری نیمه‌نظارتی[xvi]، یادگیری غیرنظارتی[xvii]. باتوجه‌به اینکه یادگیری، با استفاده از استخراج الگوها از روی داده‌های ورودی صورت می‌گیرد، با ورود داده‌های مختلف و جدید الگوها تغییر و توسعه پیدا می‌کنند. این موضوع باعث می‌شود تا فهمیدن این موضوع که ماشین چگونه به یک خروجی دست‌ یافته است، برای افرادی که ماشین را طراحی کرده‌اند نیز دشوار و یا گاهی غیرممکن باشد (Muller, 2021). زمانی که علت رسیدن ماشین به یک خروجی را اصلاً ندانیم، اصطلاحاً گفته می‌شود سیستم تار[35] است و زمانی که علت را به‌طور کامل بدانیم، سیستم شفاف[36] خواهد بود[xviii]. باید توجه داشت که در بیشتر موارد طیفی از تاری و شفافیت وجود دارد. به‌عبارتی دیگر، در بیشتر موارد علت رسیدن ماشین به یک خروجی تا حدودی برای ما تار یا شفاف است.

مثال: اینکه ماشین در تولید یک اثر هنری، چگونه از داده‌ها آموخته است، بسیار بحث‌برانگیز خواهد بود. آیا باید حقوق مالکیت معنوی اثر تولیدشده توسط ماشین را متعلق به هنرمندانی بدانیم که یادگیری ماشین براساس داده‌های آموزشی آثار آن‌ها صورت گرفته است یا خیر؟ (McCormack et al., 2019; Ghosh & Fossas, 2022). ازسویی، می‌توان گفت که ماشین مانند انسان فقط از روی تصاویر دیگر یاد گرفته و درنهایت، خودْ اثری جدید را پدید آورده است. زمانی که هنرمندی تصاویر دیگر هنرمندان را فقط برای یادگیری مشاهده می‌کند، مالکیت معنوی آثارشان متعلق به او نخواهد بود؛ اما ازسوی دیگر، آیا ماشین به‌واقع مانند انسان آموخته است یا دریافت داده‌ها همراه با کپی‌برداری از الگوهای آثار بوده است؟ برای پاسخ به این‌قبیل پرسش‌ها، شفافیت یادگیری ماشین امری مهم تلقی می‌شود.

۴-۳. سوگیری در تصمیمات سیستم

خروجی یادگیری ماشین ممکن است بسیار کم‌اهمیت یا بسیار مهم تلقی شود. در میان اشکال سوگیری، سه شکل را می‌توان در هوش مصنوعی تأثیرگذار دانست: سوگیری آموخته‌شده[37]، سوگیری شناختی[38] و سوگیری آماری[39]. معمولاً سوگیری زمانی رخ می‌دهد که قضاوتی ناعادلانه صورت می‌گیرد؛ چراکه قضاوت تحت‌تأثیر ویژگی‌های و موضوعاتی قرار گرفته که ارتباطی با موضوع تصمیم‌گیری ندارند. برای مثال، می‌توان به سوگیری‌های تبعیض‌آمیز دربارۀ اعضای گروه‌های مختلف اجتماعی اشاره کرد. این شکل از سوگیری، سوگیری آموخته‌شده نامیده می‌شود. شایان توجه است که در بسیاری موارد، فرد از این سوگیری خود آگاه نیست. اگر این شکل از سوگیری در برنامه‌نویسان وجود داشته باشد و در طراحی سیستم از آن مطلع نشوند، ممکن است این سوگیری در طراحی، انتخاب داده‌های یادگیری و یادگیری ماشین تأثیر بگذارد. سیستم شناختی انسان مستعد ابتلا به سوگیری‌های شناختی گوناگون است که به شکل دوم سوگیری، یعنی سوگیری شناختی منجر می‌شود. مثلاً انسان‌ها مایل هستند اطلاعات را برای تأیید آنچه از قبل به آن اعتقاد دارند، تفسیر کنند. این نوع سوگیری نیز می‌تواند ازطریق طراحی در یادگیری ماشین اثرگذار باشد. گاهی ممکن است داده‌ها سوگیری داشته باشند. برای مثال، اگر در یادگیری ماشین، داده‌های آموزشی سوگیری داشته باشند، ماشین براساس همین داده‌ها یاد گرفته و خروجی نیز ممکن است دارای سوگیری باشد (Muller, 2021).

مثال: اگر در آموزش ماشین برای تولید تصاویر فیگوراتیو، داده‌های اولیه بیشتر شامل تصاویر مردان سفیدپوست باشد، این سوگیری در یادگیری ماشین اثر می‌گذارد و احتمال تولید تصاویر فیگوراتیو مرد سفیدپوست بیشینه خواهد بود. در چنین شرایطی، آیا می‌توان اثر را تبعیض‌آمیز تلقی کرد؟ درصورتی‌که پاسخ به این پرسش بله باشد، مسئولیت اخلاقی این تبعیض بر عهدۀ چه کسی است؟ درصورتی‌که سوگیری داده‌ها، براساس طراحی نباشد و صرفاً آمار تصاویر فیگوراتیو مرد سفیدپوست به‌این‌علت بیشتر باشد که هنرمندان بیشتری در تاریخ تصاویر فیگوراتیو مرد سفیدپوست را کشیده‌اند، چه کسی مسئول این تبعیض خواهد بود؟

۶-۳. اتوماسیون و اشتغال

یک تصور رایج این است که با گسترش استفاده از هوش مصنوعی و ورود آن به بخش‌های گوناگون زندگی، احتمالاً بسیاری از فرصت‌های شغلی از میان می‌رود. اتوماسیون به‌شکل کلاسیک همراه با صنعتی‌شدن جوامع، تا حدود زیادی جای عضلات انسان را گرفت. اکنون اتوماسیون دیجیتال می‌خواهد جای تفکر انسان یا پردازش اطلاعات را بگیرد. همان‌طور که انقلاب صنعتی، به تغییر در بازار کار منجر شد، این تغییر جدید هم می‌تواند به تغییرات اساسی در بازار کار بینجامد. آمارها نشان می‌دهد در شرایط جدید، مشاغل نیازمند به تخصص و مهارتْ بسیار پرتقاضا هستند، بازار کار مشاغلی که خدمات و مهارت کم نیاز دارند، کم‌تقاضاست و در اکثریت مشاغلی که به توانایی متوسط نیاز دارند و کارِ کارکنان یک روند قابل‌پیش‌بینی دارد، بیشترین ریسک جایگزین‌شدن ماشین به‌جای انسان وجود دارد (Muller, 2021). حال باید دید: آیا هوش مصنوعی در هنر نیز آثار مشابهی دارد؟ به‌عبارتی دیگر، هوش مصنوعی مشاغل هنرمندان را در خطر می‌اندازد؟ احتمالاً زمانی هوش مصنوعی خواهد توانست چنین خطری ایجاد کند که دستِ‌کم بتواند بخشی از بازار کار هنرمندان را تصاحب کند.

مثال: آرون هرتزمن معتقد است که هوش مصنوعی، ابزاری در دست هنرمند است و نمی‌تواند جای او را بگیرد. وی استدلال می‌کند هنر یک عمل اجتماعی[40] است که عامل اجتماعی[41] آن را برای بیان و ارتباط خلق می‌کند. براین‌اساس، برای اینکه هوش مصنوعی را خالق اثر هنری بخوانیم، باید آن ‌را یک عامل اجتماعی در تلاش برای ارتباط و اشتراک افکار خود ازطریق خلق اثر هنری بدانیم. باید توجه داشت اگرچه هوش مصنوعی با انسان (عوامل اجتماعی) در ارتباط است و تولیدات هوش مصنوعی با انسان به اشتراک گذاشته می‌شود، در اینجا تفاوت‌ عمده‌ای میان ارتباط و اشتراک‌گذاری دو عامل اجتماعی (دو انسان) با هم و هوش مصنوعی با عامل اجتماعی (انسان/انسان‌ها) وجود دارد. ماشین برای بیان خود، به ارتباط و اشتراک‌گذاری با عوامل اجتماعی دیگر التفاتی[42] ندارد و این ارتباط و اشتراک‌گذاری برمبنای طراحی ماشین صورت می‌گیرد. هرتزمن با این مقدمات نتیجه می‌گیرد که هوش مصنوعی یک عامل اجتماعی نیست؛ بنابراین، نمی‌تواند جای هنرمند را بگیرد و اثر هنری خلق کند (Hertzmann, 2018). هوش مصنوعی به‌مانند انسان هوشمند نیست؛ اما به نظر می‌رسد بیش از یک ابزار باشد و هرتزمن، برخی از امکانات و ویژگی‌های آن ‌را نادیده گرفته است.

قلم، ابزاری در دست نقاش است؛ اما تفاوت‌های بنیادینی با هوش مصنوعی دارد. هوش مصنوعی براساس تجربیات گذشته تصمیم‌گیری می‌کند، با استفاده از داده‌ها یاد می‌گیرد و خود را تغییر می‌دهد؛ درحالی‌که قلم و به‌صورت کلی ابزار نمی‌تواند خود را تغییر دهد و اصلاح کند. البته ازاین‌جهت می‌توان با هرتزمن همدل بود که یادگیری و تغییرات هوش مصنوعی برپایۀ التفات هوش مصنوعی صورت نگرفته است؛ اما همچنان باید توجه داشت که تقلیل هوش مصنوعی به یک ابزار می‌تواند به نادیده‌گرفته‌شدن ویژگی‌های آن منجر شود. برخی معتقدند باتوجه‌به این ویژگی‌ها، می‌توان هوش مصنوعی را یک مدیوم[xix] دانست. واژۀ مدیوم به چیزی بیش از یک ابزار اشاره می‌کند و دامنۀ امکانات و محدودیت‌های ذاتی خلق اثر هنری را نیز دربرمی‌گیرد. مطابق با این دیدگاه، وجه اجتماعی تولید و خلق اثر هنری و یکسان‌ندانستن هوشمندی ماشین با هوش انسان کماکان پابرجاست؛ اما ظرفیت و امکانات هوش مصنوعی نیز از نظر دور نمی‌ماند (Mazzone & Elgammal, 2019).

حال چه هوش مصنوعی را یک ابزار بدانیم و چه یک مدیوم، به نظر می‌رسد در برخی موارد توانسته است بازار رقابت را ازآنِ خود کند. گزارش برخی پژوهش‌ها نشان می‌دهد که گاهی آثار تولیدشده توسط ماشین برای مخاطب انسانی قابل‌شناسایی نیست و مخاطبان صرف‌نظر از اینکه اثر را انسان تولید کرده باشد یا ماشین، آن را اثری هنری می‌دانند[xx] و نمایشگاه‌های این آثار برگزار می‌شود و خرید و فروش صورت می‌گیرد (Mikalonytė & Kneer, 2021; Elgammal et al, 2017). در چنین شرایطی، آیا باید پذیرفت که بسیاری از هنرمندان کار خود را از دست بدهند و یا جلوی تولید آثارِ ماشین را گرفت؟

۴. بحث و بررسی

در بخش پیشین، برخی از چالش‌های اخلاقی هوش مصنوعی اثرگذار در مباحث مربوط به حوزۀ هنر معرفی شدند. حال در این بخش، پیرو مطالب بالا به برخی از مباحث پرداخته می‌شود.

۱. اگر به مثال حریم خصوصی و نظارت مراجعه کنیم، مشاهده می‌کنیم که چالش‌های اخلاقی هوش مصنوعی، دستِ‌کم در حوزۀ هنر در بسیاری موارد درهم‌تنیده هستند. مثال این بخش اگرچه حول حریم خصوصی است، به مبحث تاری و شفافیت نیز وارد می‌شود. همچنین، با تکیه بر همین مثال می‌توان به مبحث دستکاری در رفتار رجوع کرد و در آنجا نیز مشاهده می‌شود که هوش مصنوعی باتوجه‌به داده‌های فراوان می‌تواند اطلاعاتی بیش از هر روش دیگری به ‌دست آورد و تغییرات رفتار را تقویت کند. در همین مثال مشاهده می‌شود که مبحث اتوماسیون و اشتغال نیز به‌شیوه‌ای دیگر مطرح می‌شود و خطر ازدست‌رفتن برخی مشاغل برای هنرمندان مشخص می‌شود. همان‌طور که در ابتدای بخش دوم پژوهش مطرح شد، بسیاری از مباحث اخلاقی در بیشتر پژوهش‌ها تکرار می‌شوند؛ علت اصلی این تکرار را می‌توان همین درهم‌تنیدگی مباحث دانست که خود موجب می‌شود برای توجه به یک مبحث، توجه به مباحث دیگر نیز لازم باشد.

۲. در برخی از موضوعات مشاهده شد که گاهی راهکارهای فنی برای فایق‌آمدن بر چالش‌های اخلاقی ارائه می‌شود. باید توجه داشت که در اینجا محدودیت‌هایی وجود دارد. گاهی اگر بخواهیم برخی از مشکلات مطرح‌شده در بالا را فقط با تکیه بر راهکارهای فنی یا طراحی برطرف کنیم، خود می‌تواند به بروز معضلات دیگر منجر شود. برای مثال، نتایج پژوهش‌ها نشان می‌دهد گاهی اگر بخواهیم مشکلات مربوط به شفافیت را برطرف کنیم، مشکلات امنیتی داده‌ها بروز پیدا می‌کند و حریم خصوصی در خطر خواهد افتاد (Felzmann et al., 2020: 3340). باتوجه‌به نزدیکی موضوعات اخلاقی و مشکلی که تضاد رفع مشکلات به‌ وجود می‌آورد، همواره با پاسخی صریح روبه‌رو نیستیم. مثلاً نمی‌توان به‌سادگی گفت که حریم خصوصی از شفافیت مهم‌تر است؛ بنابراین، باید شفافیت را کنار گذاشت و بر حریم خصوصی تمرکز کرد. با چنین انتخابی، برای حفظ حریم خصوصی، موضوعی همچون حق مالکیت معنوی آثار تولیدشده توسط ماشین، دیگر قابل‌بررسی نخواهد بود. همچنین، اگر به راهکار فنی که در مبحث حریم خصوصی به آن اشاره شد، باز گردیم، مشاهده می‌کنیم که راهکارهای فنی ممکن است بتوانند بخشی از چالش‌ها را برطرف کنند؛ اما در آنجا نیز با محدودیت‌هایی مثل نیاز به به‌روزرسانی‌های فنی برای چالش‌های جدید روبه‌رو خواهیم بود.

۳. در کنار مواردی که در مبحث قبل به آن اشاره شد، استفاده از اصلاحات فنی و توجه به طراحی هوش مصنوعی برای رفع چالش‌های اخلاقی، دشواری‌های دیگری نیز وجود دارد. برای مثال، نظریه‌ها و مکاتب اخلاقی مختلفی گاهی اختلاف‌نظرهای بسیار مهم و بنیادینی با یکدیگر دارند. پاسخ به پرسش‌هایی که در مثال‌های مباحث اتوماسیون و اشتغال، سوگیری در تصمیمات سیستم و تاری و شفافیت مطرح شد، نیازمند اتخاذ یک رویکرد اخلاقی است. پرسش اصلی این است که دربرابر چالش‌های اخلاقی هوش مصنوعی کدام رویکرد و مکتب اخلاقی اتخاذ شود. البته باید توجه داشت که این مبحث به حوزۀ هنر محدود نیست و پرسشی مهم در حوزۀ سیاست‌گذاری هوش مصنوعی محسوب می‌شود که در هنر نیز مؤثر خواهد بود.

۴. انتخاب داده‌ها در مبحث سوگیری، طراحی سیستم در مبحث تاری و شفافیت، نحوۀ استفاده در مبحث دستکاری در رفتار، هر کدام می‌توانند به بروز چالش‌های اخلاقی هوش مصنوعی در حوزۀ هنر منجر شوند؛ بنابراین، چه زمانی که از اخلاق هوش مصنوعی به‌صورت عام سخن به میان می‌آید و و چه زمانی که در حوزۀ هنر مطرح می‌شود، داده‌ها، طراحی و استفاده از هوش مصنوعی مورد توجه قرار می‌گیرند. شایان ذکر است که داده‌ها، طراحی و استفاده می‌توانند یکدیگر را تشدید کنند. برای مثال، داده‌ها، طراحی و استفاده ممکن است سوگیری داشته باشند. در چنین شرایطی، برطرف‌کردن سوگیری بسیار دشوار خواهد بود.

۵. در حوزۀ هنر به‌عنوان یکی از حوزه‌هایی که از هوش مصنوعی در آن استفاده می‌شود، با پرسش‌ها و چالش‌های اخلاقی روبه‌رو می‌شویم. شناخت چالش‌ها نیازمند بررسی در حوزه‌های اختصاصی است. به‌عبارتی، اگر حوزۀ هنر بررسی نشود، چالش‌های هوش مصنوعی در این حوزه ناشناخته باقی خواهند ماند. همچنین، مشخص شد بسیاری از مباحث اخلاق هوش مصنوعی در حوزه‌های دیگر را می‌توان در حوزۀ هنر نیز بررسی کرد؛ بنابراین، می‌توان گفت شناخت مباحث اخلاقی هوش مصنوعی در حوزه‌های مختلف می‌تواند ما را برای بررسی آن‌ها در دیگر حوزه‌ها یاری دهد. حال همان‌طور که در بررسی‌های پیشین مشخص شد، داده‌ها، طراحی و استفاده از هوش مصنوعی می‌توانند چالش‌های اخلاقی متعددی را پدید ‌آورند. استفاده از داده‌ها و استفاده از هوش مصنوعی را اگرچه می‌توان در سطح حوزۀ اختصاصی بررسی کرد و شاید بتوان برخی راهکارهای مشخص برای آن یافت، اما طراحی را نمی‌توان به‌این‌شیوه مورد نظر قرار داد. به‌عبارتی دیگر، محدودیت‌هایی که در طراحی اخلاقی هوش مصنوعی وجود دارد، در بسیاری از موارد ناشی از محدودیت‌های فنی است. صرف‌نظر از مواردی که بالاتر درخصوص اتخاذ راهکارهای فنی به آن اشاره شد، باید در نظر داشت که خود پیاده‌سازی فنی نیز محدودیت‌هایی دارد. پژوهشگر حوزۀ اخلاق، فلسفه و هنر می‌تواند در مباحث اخلاق هوش مصنوعی ورود پیدا کند؛ اما دست‌آخر این برنامه‌نویس است که مباحث مطرح‌شده را به زبان ماشین برمی‌گرداند. برنامه‌نویس ممکن است در شناخت مباحث اخلاقی مطرح‌شده از این پژوهشگران یاری بگیرد؛ اما محدودیت‌های فنی که با آن روبه‌رو است، همیشه برطرف‌شدنی نیست. برای مثال، برنامه‌نویس برای طراحی سیستم هوش مصنوعی باید کدهای اخلاقی را به‌زبانِ ریاضیاتی سیستم بنویسد و یکی از محدودیت‌ها تبدیل مباحث کیفی به شیوۀ کمّی است (Hagendroff, 2022). پس درمجموع، می‌توان گفت که بخشی از چالش‌ها و معضلات اخلاقی هوش مصنوعی در حوزۀ هنر، نیازمند پاسخ‌های عمومی در هوش مصنوعی است.

۶. در استفاده از تکنولوژی‌های جدید گاهی پیشنهاد می‌شود فرهنگ‌سازی و آموزش برای رفع و یا جلوگیری از چالش‌های اخلاقی انجام شود. در مثال بخش حریم خصوصی و نظارت مشاهده شد که کلان‌داده‌ها می‌توانند اطلاعات فراوانی را فاش کنند که پیش‌تر از آن‌ها اطلاع نداشته‌ایم. اگرچه اهمیت آموزش انکارناپذیر است، دربرابر کلان‌داده‌ها نمی‌توان آن را راهکاری مؤثر در نظر گرفت؛ چراکه این داده‌ها به‌شیوه‌های مختلفی جمع‌آوری می‌شوند و این تنها انتخاب ما نیست. مثلاً ممکن است هنرمندی خودْ از هوش مصنوعی استفاده‌ای نبرد، اما آثار او و داده‌های او توسط داده‌های مخاطبان او گردآوری می‌شوند. از منظری دیگر نیز باید توجه کرد که آموزش‌های ما همواره معطوف به گذشته است؛ درحالی‌که داده‌های فراوانی در حال تولید هستند و الگوها و مدل‌هایی را پدید می‌آورند که با رجوع به گذشته نمی‌توان به آن‌ها دست یافت.

۶. ممکن است بسیاری از سناریوهای مطرح‌شده رخ ندهد[xxi]؛ اما مباحث اخلاق هوش مصنوعی باید نه‌تنها به سناریوهای رخ‌داده، بلکه به سناریوهای احتمالی نیز بپردازد. باتوجه‌به مباحث بالا، طراحی اخلاقی و تمرکز بر اصلاحات فنی، سیاست‌گذاری، آموزش و سایر شیوه‌ها هرکدام با محدودیت‌هایی روبه‌رو هستند. دور از ذهن نیست که در چنین شرایطی، پرسیده شود: آیا مقصود این است که هیچ راهکاری وجود ندارد؟ دربرابر این پرسش باید توجه کرد که محدودیت‌های اشاره‌شده انکارناپذیر است؛ اما به‌معنای بی‌اثربودن راهکارها هم نیست. هرکدام از این راهکارها تا حدودی موفقیت‌آمیز بوده‌اند و همان‌طور که ذکر شد، می‌توانند بخشی از چالش‌ها را مرتفع کنند؛ بنابراین، پاسخ این خواهد بود که اگرچه راهکار نهایی و به دور از محدودیت در اختیار نیست، به نظر می‌رسد بهترین شیوه درحال‌حاضر استفاده از تمام راهکارهای موجود در کنار هم باشد.

نتیجه‌گیری

اگر دربرابر هوش مصنوعی، رویکردی منفی در پیش بگیریم و آن ‌را به‌تمامی مخرب بدانیم، بسیاری از امکاناتی را که پدید می‌آورد، نادیده گرفته‌ایم. همچنین، اگر به چالش‌ها و موضوعات اخلاقی هوش مصنوعی توجه کافی نشود، می‌تواند آثار زیان‌باری به ‌وجود آورد. به‌منظور اینکه هم از امکانات و فرصت‌ها استفاده شود و هم خطرات احتمالی کاهش یابد، نیاز است که با موشکافی مباحث اخلاقیِ آن، بررسی شود. پژوهش حاضر نشان می‌دهد بسیاری از موضوعات اخلاق هوش مصنوعی، به حوزۀ هنر نیز ورود پیدا می‌کنند. حریم خصوصی و نظارت، دستکاری در رفتار، تاری و شفافیت، سوگیری در تصمیمات سیستم، اتوماسیون و اشتغال ازجمله موضوعات قابل‌بررسی در حوزۀ هنر هستند. نتایج پژوهش حاضر نشان می‌دهد اگر بخواهیم از یک راهکار دربرابر چالش‌های اخلاقیِ هوش مصنوعی در حوزۀ هنر استفاده کنیم، محدودیت‌های گوناگونی پیش روی ما خواهد بود؛ به‌همین‌دلیل، مناسب‌ترین رویکرد می‌تواند اتخاذ راهکارهای گوناگون در کنار هم باشد. باتوجه‌به اینکه چالش‌های اخلاق هوش مصنوعی در هر حوزه‌ای ممکن است ظهور و بروزهای متفاوتی داشته باشد، جامعۀ هنر و پژوهشگران آن نیاز است آشنایی بیشتری با آن پیدا کنند. همان‌طور که مشاهده شد، تکنولوژی‌های هوش مصنوعی اشکال مختلفی دارند و اگر با آن‌ها آشنا نباشیم، قادر نخواهیم بود که دربرابر چالش‌ها بررسی صحیح و راهکارهای مناسب را بیابیم. اکنون نیاز به دانش میان‌رشته‌ای برای جامعۀ هنر درزمینۀ هوش مصنوعی، امری ضروری است.

 

[1] Artificial Intelligence

[2] DARPA: Defense Advanced Research Project Agency

[3] Christie's

[4] Harold Cohn (1928-2016)

[5] Algorithm

[6] Jan van Eyck (1390-1441)

[7] Synthesiser

[8] Machine Learning

[9]  Generative Adversarial Networks به‌اختصار GAN

[10]  Creative Adversarial Networks به‌اختصار CAN

[11] Data

[12] Dataset

[13] Label

[14] Framework

[15] Generator

[16] Privacy and surveillance

[17] Manipulation of behavior

[18] Opacity

[19] Transparency

[20] Bias in decision systems

[21] Automation and employment

[22] Autonomous systems

[23] Singularity

[24] Informed consent

[25] Data analytics

[26] Big Data

[27] Deep Opacity

[28] Online

[29] Persuasion Machine

[30] Lauren Lee McCarthy

[31] David Leonard

[32] Bio-signals

[33] Profile

[34] Paradigms

[35] Opaque

[36] Transparent

[37] Learned bias

[38] Cognitive bias

[39] Statistical bias

[40] Social act

[41] Social agent

[42] Intention

 

[i]) جان سرل هدف هوش مصنوعی را به دو دستۀ «ضعیف» و «قوی» تقسیم‌بندی کرد. هدف از هوش مصنوعی قوی، ساخت ماشینی است که تمام جنبه‌های ذهن انسان را داشته باشد. درمقابل، هدف از هوش مصنوعی ضعیف، ساخت ماشینی است که بتواند اعمال مشخصی انجام دهد (Searle, 1998: 9-11). درحال‌حاضر، این اتفاق‌نظر میان پژوهشگران وجود دارد که به هوش مصنوعی قوی دست نیافته‌ایم. گفتنی است گاهی اصطلاحات دیگری برای هوش مصنوعی قوی مانند هوش مصنوعی فوق‌هوشمند « superintelligence artificial intelligence» نیز به ‌کار می‌رود (Muller & Bostrom, 2016) و این دو اصطلاح را می‌توان معادل یکدیگر دانست.

[ii]) این اثر با عنوان «Edmond de Belamy, from La Famille de Belamy» در حراج کریستی با مبلغ ۴۳۲۵۰۰ دلار در سال ۲۰۱۸ به فروش رسید (Cohn, 2018).

[iii]) تکنیک‌های و روش‌های مختلفی در هوش مصنوعی وجود دارد؛ اما تمام این تکنیک‌ها و روش‌‌ها برای حوزۀ این پژوهش به ‌کار گرفته نمی‌شوند؛ لذا فقط به روش‌ها و تکنیک‌هایی پرداخته می‌شود که در مبحث اخلاق هوش مصنوعی در حوزۀ هنر قرار می‌گیرند. 

[iv]) برای آشنایی بیشتر با تعاریف فلسفی هوش مصنوعی رجوع کنید به (Bringsjord & Govindarajulu, 2022).

[v]) در این نمونه Yes و No برای نشان‌دادن این به کار رفته است که داده‌ها مربوط به پرتقال است یا خیر.

[vi]) به‌عبارتی دیگر، مجموعۀ داده‌های کل میوه‌ها، جنس (میوه) را مشخص می‌کند و ویژگی‌های پرتقال فصل است که آن را از سایر میوه‌ها متمایز می‌کند.

[vii]) گفتنی است که تکنیک‌های یادگیری ماشین بسیار گسترده است و شکلی ساده‌شده از یک مثال آن در اینجا ارائه شده است تا مخاطب آشنایی اولیه با آن پیدا کند.

[viii]) Discriminator: گاهی با نام‌هایی چون متمایزگر و تمیزدهنده نیز در متون فارسی ترجمه می‌شود.

[ix]) Nash equilibrium: از راه‌حل‌های نظریۀ بازی است که دستِ‌کم شامل دو بازیکن می‌شود. در تعادل نش، هر بازیکن استراتژی‌های بازیکنان دیگر را می‌داند و هیچ بازیکنی نمی‌تواند فقط با تغییر استراتژی‌های خودش چیزی به‌ دست آورد. اگر هر بازیکن یک استراتژی را انتخاب کند و هیچ‌کس نتواند چیزی با تغییر استراتژی خودش به ‌دست آورد، مادامی که دیگر بازیکنان استراتژی خود را تغییر نداده‌اند، مجموعه انتخاب‌های استراتژی‌های بازیکنان تعادل نش را تشکیل می‌دهد.

[x]) Game theory: در GAN از بازی مجموع صفر (Zero-sum game) استفاده می‌شود. در این بازی، سود یک طرف، معادل باخت طرف دیگر بازی است و سود کلی بازی صفر است. به‌عبارتی، سود کل فقط به برندۀ بازی می‌رسد.

[xi]) پیش‌نیاز پاسخ به این پرسش، شناخت و طبقه‌بندی سبک‌های هنری توسط سیستم است.

[xii]) اگر تصویر بیش از اندازه جدید باشد و در مقایسه با آثار هنری بیش از اندازه دور از انتظار باشد، مخاطب تصویر تولیدشده را از آثار هنری تشخیص می‌دهد. ازآنجاکه نیاز است این تصویر بتواند مشابه یک اثر هنری در مخاطب خود اثر بگذارد، تصویر تولیدشده نباید بیش از اندازه جدید باشد.

[xiii]) گفتنی است مباحث اخلاق هوش مصنوعی بسیار بیش از موارد ذکرشده هستند و به پژوهش‌های گسترده‌تری نیاز است (Hagendorff, 2022).

[xiv]) اگر در مثال یادشده فقط به داده‌های نقاشی‌های X متکی بودیم، ممکن بود رنگ‌های دیگری نیز به‌جز رنگ قرمز در آثاری که سویه‌های غم دارند، به ‌دست آید و تصورمان بر این باشد که مثلاً رنگ قرمز، زرد و آبی در آثار X به‌دلیل احساس غم او هستند؛ اما با داده‌های بیشتر و ترکیب داده‌های او متوجه می‌شویم که این موضوع فقط مربوط به رنگ قرمز است و دو رنگ دیگر شاید براساس ذوق یا به‌دلیل نیاز نقاش در این آثار تکرار شده‌اند و متأثر از احساس غم نیست.

[xv]) Supervised: در این شیوۀ یادگیری ماشین، تصمیمات و یادگیری تحت نظارت انسان صورت می‌گیرد. 

[xvi]) Semi-supervised: در این شیوۀ یادگیری، تصمیمات ماشین تحت نظارت انسان نیست و فقط اهداف به ماشین اعلام می‌شود.

[xvii]) Unsupervised: در این شیوه، هیچ نظارت انسانی در تصمیمات و یادگیری سیستم وجود ندارد.

[xviii]) باید توجه داشت که انتخاب پارادایم یادگیری ماشین در اینجا نمی‌تواند موضوع تاری و شفافیت را همیشه برطرف کند. پارادایم یادگیری ماشین در بیشتر موارد امری انتخابی نیست. پژوهشگران و فعالان حوزه در تلاش هستند تا برای مشکل تاری یادگیری ماشین، هوش مصنوعی درون‌نما (XAI) طراحی کنند. البته چالش اساسی این خواهد بود که در موارد پیشرفته، حتی توضیح چگونگی رسیدن ماشین به یک خروجی پیشرفته نمی‌تواند آن ‌را برای انسان قابل‌فهم کند.

[xix]) Medium: در زبان فارسی گاهی از معادل‌هایی همچون واسطۀ هنری، وسیلۀ هنری و یا رسانه در ترجمۀ متون هنری استفاده می‌شود. یکی از نگرانی‌ها این بود که استفاده از معادلی همچون واسطه/وسیلۀ هنری نتواند به‌درستی منظور را برساند؛ چراکه هوش مصنوعی فقط در هنر استفاده نمی‌شود و نباید آن را فقط واسطه یا وسیلۀ هنر دانست. این موضوع دربارۀ رسانه نیز به‌شکلی دیگر بروز پیدا می‌کرد؛ بنابراین، برای جلوگیری از این‌قبیل مشکلات، این اصطلاح به‌صورت «مدیوم» در متن استفاده شده است. 

[xx]) نتایج پژوهش‌ها نشان می‌دهد که در برخی نمونه‌ها، مخاطبان بدون اینکه آگاه باشند تصویر را ماشین خلق کرده یا هنرمند، بسیاری از تصاویر ماشین را نه‌تنها اثر هنری دانسته‌اند، بلکه به التفات هنرمند، ساختار بصری، ارتباط و الهام‌بخش‌بودن آن‌ها نیز اذعان کرده‌اند (Elgammal et al, 2017).

[xxi]) بسیاری از تصوراتی که افراد از هوش مصنوعی دارند، ازلحاظ تکنیکی هنوز قابل‌انجام نیست. به‌عبارتی، هنوز برای رسیدن به چنین مرحله‌ای با چالش‌های مختلفی در طراحی و مدل‌سازی مواجه هستیم (Hagendorff & Wezel, 2020).

References
Audry, S., & Ippolito, J. (2019). Can artificial intelligence make art without artists? Ask the viewer. Arts, 8(1), 35-43.  http://dx.doi.org/10.3390/arts8010035
Briot, J. P., & Pachet, F. (2020). Deep learning for music generation: challenges and directions. Neural Computing and Applications32(4), 981-993. https://dx.doi.org/10.1007/s00521-018-3813-6
Bringsjord, S., Govindarajulu, N. S. (2022). Artificial Intelligence. Edward N. Zalta & Uri Nodelman (Eds.). The Stanford Encyclopedia of Philosophy. Retrieved June 10, 2023, from https://plato.stanford.edu/archives/fall2022/entries/artificial-intelligence
Bringsjord, S., Govindarajulu, N. S., Banerjee, S., & Hummel, J. (2017, November). Do machine-learning machines learn?. In 3rd Conference on" Philosophy and Theory of Artificial Intelligence (pp. 136-157). Cham: Springer International Publishing. https://doi.org/10.1007/978-3-319-96448-5_14
Cohn, G. (2018). AI Art at Christie’s Sells for $432,500. New York Times25. Retrieved June 4, 2023, From https://www.nytimes.com/2018/10/25/arts/design/ai-art-sold-christies.html
Dignum, V. (2018). Ethics in artificial intelligence: introduction to the special issue. Ethics and Information Technology20(1), 1-3. https://doi.org/10.1007/s10676-018-9450-z
Elgammal, A. (2019). AI is blurring the definition of artist: Advanced algorithms are using machine learning to create art autonomously. American Scientist, 107(1), 18-22. https://doi.org/10.1511/2019.107.1.18
Elgammal, A., Liu, Bi., Elhoseiny, M., & Mazzone, M. (2017). Can: Creative adversarial networks, generating "art" by learning about styles and deviating from style norms. arXiv preprint arXiv:1706.07068. https://doi.org/10.48550/arXiv.1706.07068
Etzioni, A., &  Etzioni, O. (2017). Incorporating ethics into artificial intelligence. The Journal of Ethics21, 403-418. https://doi.org/10.1007/s10892-017-9252-2
Felzmann, H., Fosch-Villaronga, E., Lutz, C., & Tamò-Larrieux, A. (2020). Towards transparency by design for artificial intelligence. Science and Engineering Ethics26(6), 3333-3361. https://doi.org/10.1007/s11948-020-00276-4
Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2020). Generative adversarial networks. Communications of the ACM63(11), 139-144. http://dx.doi.org/10.1145/3422622
Ghosh, A., & Fossas, G. (2022). Can There be Art Without an Artist?. arXiv preprint arXiv:2209.07667. https://doi.org/10.48550/arXiv.2209.07667
Hagendorff, T. (2022). Blind spots in AI ethics. AI and Ethics2(4), 851-867. https://doi.org/10.1007/s43681-021-00122-8
Hagendorff, T., & Wezel, K. (2020). 15 challenges for AI: or what AI (currently) can’t do. AI & SOCIETY35, 355-365. https://doi.org/10.1007/s00146-019-00886-y
Hertzmann, A. (2018). Can computers create art?. Arts, 7(2), 18-43. https://doi.org/10.3390/arts7020018
Hong, J. W., & Curran, N. M. (2019). Artificial intelligence, artists, and art: attitudes toward artwork produced by humans vs. artificial intelligence. ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM)15(2s), 1-16. https://doi.org/10.1145/3326337
Kammoun, A., Slama, R., Tabia, H., Ouni, T., & Abid, M. R. (2022). Generative Adversarial Networks for face generation: A survey. ACM Computing Surveys, 55(5), 1-37. https://doi.org/10.1145/3527850
Kozyreva, A., Lewandowsky, S., & Hertwig, R. (2020). Citizens versus the internet: Confronting digital challenges with cognitive tools. Psychological Science in the Public Interest21(3), 103-156. https://doi.org/10.1177/1529100620946707
Lee, J. Y. (2023). Can an artificial intelligence chatbot be the author of a scholarly article?. Journal of Educational Evaluation for Health Professions20(6), 1-6. https://doi.org/10.3352/jeehp.2023.20.6
Luger, G. (2011). Artificial Intelligence: Structures and Strategies for Complex Problem Solving. London: Pearson Education.
McCormack, J., Gifford, T., Hutchings, P. (2019). Autonomy, Authenticity, Authorship and Intention in Computer Generated Art. In: Ekárt, A., Liapis, A., Castro Pena, M.L. (eds) Computational Intelligence in Music, Sound, Art and Design. EvoMUSART 2019. Lecture Notes in Computer Science, vol 11453. Springer, Cham. https://doi.org/10.1007/978-3-030-16667-0_3
Mazzone, M., & Elgammal, A. (2019). Art, creativity, and the potential of artificial intelligence. Arts, 8(1), 26-35. https://doi.org/10.3390/arts8010026
Miernicki, M., & Ng (Huang Ying), I. (2021). Artificial intelligence and moral rights. AI & SOCIETY36, 319-329. https://doi.org/10.1007/s00146-020-01027-6
Mikalonytė, E. S. & Kneer, M. (2021). Can Artificial Intelligence Make Art?. arXiv preprint arXiv:2104.07598. https://doi.org/10.48550/arXiv.2104.07598
Mondal, B. (2020). Artificial Intelligence: State of the Art. In: Balas, V., Kumar, R., Srivastava, R. (eds) Recent Trends and Advances in Artificial Intelligence and Internet of Things. Intelligent Systems Reference Library, vol 172. Springer, Cham. https://doi.org/10.1007/978-3-030-32644-9_32
Muller, V., & Bostrom, N. (2016). Future progress in artificial intelligence: A survey of expert opinion. Fundamental issues of artificial intelligence, 555-572. https://doi.org/10.1007/978-3-319-26485-1_33
Muller, V. (2021). Ethics of Artificial Intelligence and Robotics. The Stanford Encyclopedia of Philosophy. Retrieved June 4, 2023, from https://plato.stanford.edu/entries/ethics-ai/
Nasim, S. F., Ali, M. R., & Kulsoom, U. (2022). Artificial intelligence incidents & ethics a narrative review. International Journal of Technology, Innovation and Management (IJTIM)2(2), 52-64. https://doi.org/10.54489/ijtim.v2i2.80 
Norton, D., Heath, D., & Ventura, D. (2013). Finding creativity in an artificial artist. The Journal of Creative Behavior47(2), 106-124. https://doi.org/10.1002/jocb.27
Russel, S., & Norvig, P. (2020). Artificial intelligence: A Modern Approach, Fourth Edition. London: Pearson.
Searle, John. (1998). The mystery of consciousness. London: Granta Books.
Shan, S., Cryan, J., Wenger, E., Zheng, H., Hanocka, R., & Zhao, B. Y. (2023). Glaze: Protecting artists from style mimicry by text-to-image models. arXiv preprint arXiv:2302.04222. https://doi.org/10.48550/arXiv.2302.04222
Stocker, G., Jandl, M., & Hirsch, A. (Eds.). (2021). The Practice of Art and AI. Austria: Hatje Cantz.
Zhou, Zhi-Hua. (2021). Machine learning. Singapore: Springer Nature.