به گزارش سایت ستاد حقوق بشر، بنیاد دیدهبان اینترنت اعلام کرد که پدوفیلها از پیشرفتهای هوش مصنوعی برای تولید ویدیوهای آزار جنسی کودکان استفاده میکنند که میتواند در آینده افزایش چشمگیری داشته باشد.
روزنامه انگلیسی گاردین به نقل از این ناظر حقوق بشری نوشت: «اکثر مواردی از این دست که توسط بنیاد دیدهبان اینترنت مشاهده شده، شامل دستکاری محتواهای سوءاستفاده جنسی از کودکان (CSAM) یا پورنوگرافی بزرگسالان است که در آن، چهره کودک به فیلم اضافه شده است. تعداد انگشت شماری از فیلمها، کاملاً ساخته و پرداخته هوش مصنوعی هستند و تقریباً 20 ثانیه هستند.»
بنیاد دیدهبان اینترنت که بر محتواهای سوءاستفاده جنسی از کودکان در سرتاسر جهان نظارت میکند، ابراز نگرانی کرده که با گسترش ابزارهای هوش مصنوعی، تولید و انتشار چنین فیلمهایی افزایش یابد.
«دن سکستون»، مدیر ارشد فناوری این بنیاد میگوید: «اگر استفاده از ابزارهای ویدیویی هوش مصنوعی همان روند تصاویر ساخته شده توسط هوش مصنوعی را دنبال کند، که با بهبود فناوری و در دسترستر شدن این ابزارها، حجم تصاویر تولیدی نیز افزایش یافته، ممکن است ویدیوهای سوءاستفاده جنسی از کودکان بیشتر و بیشتر شوند که کیفیت بالاتری دارند و بیشتر شبیه واقعیت هستند.»
به گفته تحلیلگران این بنیاد، تصاویر سوءاستفاده جنسی از کودکان ساخته شده توسط هوش مصنوعی در سال جاری میلادی در مقایسه با سال 2023 که برای اولین بار چنین محتوایی مشاهده شده، واقعیتر به نظر میرسند.
بنا بر اعلام گاردین، از 12 هزار تصویر جدید تولید شده توسط هوش مصنوعی طی بازه یک ماهه، 90 درصد آنقدر واقعی بودند که میتوان تحت قوانین سوءاستفاده جنسی از کودکان بریتانیا آن را پیگیری کرد.
«سوزی هارگریوز»، مدیر اجرایی بنیاد دیدهبان اینترنت نیز در این رابطه میگوید: «بدون اعمال نظارت مناسب، ابزارهای مولد هوش مصنوعی زمین بازی را برای شکارچیان آنلاین فراهم میکند تا منحرفکنندهترین و بیمارکنندهترین خیالپردازیهای خود را به واقعیت تبدیل کنند. در حال حاضر،شاهد هستیم که چنین محتواهایی در وب سایتهای تجاری سوءاستفاده جنسی از کودکان در اینترنت به اشتراک گذاشته شده و فروخته میشود.»
بنیاد دیدهبان اینترنت به دنبال تغییر قوانینی است که دستورالعمل ساخت محتواهای راهنماهایی سوءاستفاده جنسی از کودکان با هوش مصنوعی و همچنین ساخت مدلهای هوش مصنوعی که میتوانند چنین محتوایی را تولید کنند، جرم انگاری کند.