دیده بان پیشرفت علم، فناوری و نوآوری
نویسندگان ادعا کردند؛

استفاده غیرقانونی متا از کتاب‌ها در آموزش هوش مصنوعی

استفاده غیرقانونی متا از کتاب‌ها در آموزش هوش مصنوعی
نویسندگان ادعا می‌کنند متا علی‌رغم هشدار‌های وکلا، از کتاب‌های دارای حق تالیف برای آموزش هوش مصنوعی استفاده کرده است.
کد خبر : 884753

به گزارش خبرگزاری علم و فناوری آنا به نقل از رویترز،‌ نویسندگان ادعا می‌کنند که متا علی‌رغم هشدار‌های وکلای خود از کتاب‌های دارای حق تألیف برای آموزش هوش مصنوعی استفاده کرده است.

 وکلا در مورد خطرات قانونی استفاده از هزاران کتاب تقلبی برای آموزش مدل‌های هوش مصنوعی خود هشدار داده بودند، اما متا این کار را بر اساس یک پرونده جدید در شکایت نقض کپی‌رایت که در ابتدا تابستان امسال مطرح شد انجام داد و  ادعا می‌شود متا، بدون اجازه برای آموزش مدل زبان هوش مصنوعی خود یعنی  لاما، از آثار آن‌ها استفاده کرده است.

یک قاضی کالیفرنیایی ماه گذشته بخشی از شکایت را رد و اعلام کرد که به نویسندگان اجازه خواهد داد تا ادعا‌های خود را اصلاح کنند، متا بلافاصله به درخواست برای اظهارنظر در مورد این اتهامات پاسخ نداد.

این شکایت جدید که روز دوشنبه ثبت شد، شامل گزارش‌های چت یک محقق وابسته به متا است که در مورد خرید مجموعه داده‌ها در یک سرور دیسکورد بحث می‌کند، یک مدرک بالقوه قابل‌توجه که نشان می‌دهد متا آگاه بوده که استفاده از کتاب‌ها ممکن است توسط قانون کپی‌رایت آمریکا محافظت نشود.

آن‌ها می‌گویند آموزش در مورد داده‌ها باید تحت استفاده منصفانه قرار گیرد و یک دکترین قانونی ایالات‌متحده از برخی استفاده‌های بدون مجوز آثار دارای کپی‌رایت محافظت می‌کند.

شرکت‌های فناوری در سال جاری با پرونده‌های قضایی زیادی از سوی خالقان محتوا مواجه شده‌اند که آن‌ها را به از بین بردن آثار تحت حمایت کپی‌رایت برای ساخت مدل‌های هوش مصنوعی مولد متهم می‌کنند که یک احساس جهانی ایجاد کرده و هیجان سرمایه‌گذاری را برانگیخته است.

در صورت موفقیت این موارد می‌توانند دیوانگی هوش مصنوعی مولد را کاهش دهند، چراکه آن‌ها می‌توانند هزینه ساخت مدل‌های نیازمند داده را با وادار کردن شرکت‌های هوش مصنوعی به پرداخت غرامت به هنرمندان، نویسندگان و دیگر سازندگان محتوا برای استفاده از آثار خود افزایش دهند.

درعین‌حال، قوانین موقت جدید در اروپا که هوش مصنوعی را تنظیم می‌کند، می‌تواند شرکت‌ها را مجبور به افشای داده‌هایی کند که برای آموزش مدل‌های خود استفاده می‌کنند و به‌طور بالقوه آن‌ها را در معرض خطر قانونی بیشتری قرار دهد.

 

 

انتهای پیام/

ارسال نظر
قالیشویی ادیب