الگوریتم‌های مولد: آیا این می‌تواند به مخرب‌ترین فناوری دهه ۲۰۲۰ تبدیل شود؟

اعتبار تصویر:
تصویر های اعتباری
iStock

الگوریتم‌های مولد: آیا این می‌تواند به مخرب‌ترین فناوری دهه ۲۰۲۰ تبدیل شود؟

الگوریتم‌های مولد: آیا این می‌تواند به مخرب‌ترین فناوری دهه ۲۰۲۰ تبدیل شود؟

متن زیر عنوان
محتوای تولید شده توسط رایانه آنقدر شبیه انسان می شود که تشخیص و انحراف آن غیرممکن می شود.
    • نویسنده:
    • نام نویسنده
      آینده نگاری کوانتوم ران
    • فوریه 21، 2023

    علیرغم رسوایی های اولیه دیپ فیک ناشی از الگوریتم های مولد، این فناوری های هوش مصنوعی (AI) ابزار قدرتمندی هستند که بسیاری از صنایع - از شرکت های رسانه ای گرفته تا آژانس های تبلیغاتی گرفته تا استودیوهای فیلم - برای ایجاد محتوای باورپذیر از آن استفاده می کنند. برخی از کارشناسان استدلال می کنند که هوش مصنوعی مولد باید با دقت بیشتری نظارت شود، زیرا توانایی های این الگوریتم های هوش مصنوعی به زودی پتانسیل ایجاد انحراف و فریب مردم را خواهد داشت، البته به طور خودکار بخش های وسیعی از کار یقه سفید را نیز ذکر نکنیم.

    زمینه الگوریتم های مولد

    هوش مصنوعی مولد یا الگوریتم‌هایی که می‌توانند محتوا (از جمله متن، صدا، تصویر، ویدیو و موارد دیگر) را با حداقل دخالت انسان ایجاد کنند، از دهه 2010 پیشرفت‌های چشمگیری داشته است. برای مثال، OpenAI's Generative Pre-trained Transformer 3 (GPT-3) در سال 2020 منتشر شد و پیشرفته ترین شبکه عصبی در نوع خود محسوب می شود. این می تواند متنی ایجاد کند که تقریباً از چیزی که یک شخص می نویسد قابل تشخیص نیست. سپس در نوامبر 2022، OpenAI ChatGPT را منتشر کرد، الگوریتمی که به دلیل توانایی خیره‌کننده‌اش در ارائه پاسخ‌های دقیق به درخواست‌های کاربر و بیان پاسخ‌ها در بسیاری از دامنه‌ها، علاقه قابل توجه مصرف‌کنندگان، بخش خصوصی و رسانه‌ها را به خود جلب کرد.

    یکی دیگر از فناوری‌های مولد هوش مصنوعی که در حال افزایش محبوبیت (و شهرت) است، دیپ‌فیک‌ها هستند. فناوری پشت دیپ فیک از شبکه‌های متخاصم مولد (GAN) استفاده می‌کند، که در آن دو الگوریتم یکدیگر را آموزش می‌دهند تا تصاویری نزدیک به تصویر اصلی تولید کنند. اگرچه این فناوری ممکن است پیچیده به نظر برسد، تولید آن نسبتاً آسان شده است. برنامه های آنلاین متعدد، مانند Faceswap و ZAO Deepswap، می توانند تصاویر، صدا و فیلم های دیپ جعلی را در عرض چند دقیقه (و در برخی از برنامه ها، فورا) ایجاد کنند.

    در حالی که همه این ابزارهای مولد هوش مصنوعی در ابتدا برای پیشرفت فناوری‌های یادگیری ماشینی و عمیق توسعه داده شده‌اند، اما برای اقدامات غیراخلاقی نیز مورد استفاده قرار گرفته‌اند. نسل بعدی اطلاعات نادرست و کمپین های تبلیغاتی با استفاده از این ابزارها رشد کرده است. رسانه های مصنوعی، مانند اپدها، ویدیوها و تصاویر تولید شده توسط هوش مصنوعی، منجر به سیل اخبار جعلی شده اند. ربات‌های اظهارنظر عمیق حتی برای آزار و اذیت زنان و اقلیت‌ها به صورت آنلاین مورد استفاده قرار گرفته‌اند. 

    تاثیر مخرب

    سیستم های هوش مصنوعی مولد به سرعت در حال تجربه کاربردهای گسترده در صنایع متعدد هستند. مطالعه‌ای که در سال 2022 توسط انجمن ماشین‌های محاسباتی منتشر شد نشان داد که شرکت‌های رسانه‌ای پیشرو مانند Associated Press، Forbes، New York Times، Washington Post و ProPublica از هوش مصنوعی برای تولید مقالات کامل از ابتدا استفاده می‌کنند. این محتوا شامل گزارش جرایم، بازارهای مالی، سیاست، رویدادهای ورزشی و امور خارجی است.

    هوش مصنوعی مولد همچنین در هنگام نوشتن متون برای برنامه های مختلف، از محتوای تولید شده توسط کاربر و شرکت گرفته تا گزارش های نوشته شده توسط موسسات دولتی، بیشتر به عنوان ورودی استفاده می شود. هنگامی که هوش مصنوعی متن را می نویسد، دخالت آن معمولاً آشکار نمی شود. برخی استدلال کرده اند که با توجه به احتمال سوء استفاده، کاربران هوش مصنوعی باید در مورد استفاده از آن شفاف باشند. در واقع، همانطور که توسط قانون شفافیت عدالت الگوریتمی و پلتفرم آنلاین در سال 2020 پیشنهاد شده است، این نوع افشا احتمالاً تا اواخر دهه 2021 به قانون تبدیل خواهد شد. 

    حوزه دیگری که در آن به افشای هوش مصنوعی مولد نیاز است، تبلیغات است. یک مطالعه در سال 2021 که در مجله تبلیغات منتشر شد نشان داد که تبلیغ‌کنندگان بسیاری از فرآیندها را برای ایجاد «تبلیغات مصنوعی» که از طریق تجزیه و تحلیل و اصلاح داده‌ها ایجاد می‌شود، خودکار می‌کنند. 

    تبلیغ‌کنندگان اغلب از تاکتیک‌های دستکاری استفاده می‌کنند تا تبلیغات را شخصی‌تر، منطقی‌تر یا احساسی‌تر کنند تا مصرف‌کنندگان مایل به خرید محصول باشند. دستکاری تبلیغات شامل هرگونه تغییری است که در یک تبلیغ ایجاد می شود، مانند روتوش، آرایش، و نور/زاویه. با این حال، شیوه‌های دستکاری دیجیتال به حدی شدید شده‌اند که می‌توانند استانداردهای زیبایی غیرواقعی و بدشکلی بدن را در بین نوجوانان ایجاد کنند. چندین کشور مانند بریتانیا، فرانسه و نروژ موظف کرده‌اند که تبلیغ‌کنندگان و تأثیرگذاران به صراحت اعلام کنند که آیا محتوای آنها دستکاری شده است.

    مفاهیم الگوریتم های مولد

    مفاهیم گسترده‌تر الگوریتم‌های مولد ممکن است شامل موارد زیر باشد: 

    • بسیاری از مشاغل یقه سفید - مانند مهندسی نرم افزار، وکلا، نمایندگان خدمات مشتری، نمایندگان فروش و غیره- شاهد اتوماسیون فزاینده مسئولیت های شغلی کم ارزش خود خواهند بود. این اتوماسیون بهره وری کارگران معمولی را بهبود می بخشد و در عین حال نیاز شرکت ها به استخدام بیش از حد را کاهش می دهد. در نتیجه، شرکت‌های بیشتری (مخصوصاً شرکت‌های کوچک‌تر یا با مشخصات کمتر) در دوره‌ای حساس که نیروی کار در سراسر جهان به دلیل بازنشستگی‌های رو به رشد در حال کاهش است، به متخصصان ماهر دسترسی خواهند داشت.
    • از هوش مصنوعی مولد برای نوشتن نظرات و مقالات رهبری فکری استفاده می شود.
    • افزایش استفاده از هوش مصنوعی مولد برای ساده‌سازی نسخه دیجیتال، که در آن زوایای مختلف یک داستان به طور همزمان نوشته می‌شود.
    • استفاده از محتوای دیپ جعلی در تبلیغات و فیلم‌ها برای پیری بازیگران یا بازگرداندن افراد متوفی.
    • برنامه‌ها و فناوری‌های Deepfake به طور فزاینده‌ای در دسترس و کم‌هزینه می‌شوند و به افراد بیشتری اجازه می‌دهند در تبلیغات و اطلاعات نادرست شرکت کنند.
    • کشورهای بیشتری از شرکت‌ها می‌خواهند استفاده از محتوای تولید شده توسط هوش مصنوعی، شخصیت‌ها، نویسندگان، افراد مشهور و اینفلوئنسرها را فاش کنند.

    سوالاتی برای اظهار نظر

    • چگونه از هوش مصنوعی مولد در خط کار شما استفاده می شود، اگر اصلاً؟
    • مزایا و خطرات دیگر استفاده از هوش مصنوعی برای تولید انبوه محتوا چیست؟