هوش مصنوعی OpenAI
چت باتهای هوش مصنوعی امروزه به بخش جداییناپذیری از زندگی ما تبدیل شدهاند، با این حال «توهم هوش مصنوعی» باعث نگرانی بسیاری از کارشناسان است!
کد خبر: ۹۲۳۲۰۰ تاریخ انتشار : ۱۴۰۳/۰۵/۰۱
به اعتقاد محققان، در بدترین حالت میتوان هوش مصنوعی فوقالعاده باهوشی را تصور کرد که به دنبال تسلط بر جامعه باشد، امری که در صورت تحقق میتواند منجر به حذف انسانها از قدرت یا حتی انقراض بشریت شود.
کد خبر: ۹۱۰۷۶۵ تاریخ انتشار : ۱۴۰۳/۰۲/۲۲
نسخه تجاری چتجیپیتی در حالی راهاندازی میشود که هوش مصنوعی شرکت اپنایآی ۹ ماه پس از آغاز به کار تاریخی خود با کاهش تعداد کاربران دست و پنجه نرم میکند.
کد خبر: ۸۶۶۳۵۰ تاریخ انتشار : ۱۴۰۲/۰۶/۱۲
محققان با ارائه دستورالعملهایی به مدل هوش مصنوعی ChatGPT بدون آنکه مجبور به کدنویسی شوند، از هوش مصنوعی به عنوان دستیار در پروژههای تحقیقاتی استفاده کردند. این دستیار در اولین تجربه همکاری خود در نقش یک پژوهشگر توانست در خوانش مقالات و ارائه پیشنهادات در سنتز چارچوبهای آلی فلزی به دانشمندان کمک کند.
کد خبر: ۸۶۳۳۷۰ تاریخ انتشار : ۱۴۰۲/۰۵/۲۴
والت دیزنی با توسعه نیرویکار لازم برای مطالعه هوش مصنوعی و چگونگی استفاده از آن میان شرکتهای سرگرمی تمرکز کرده است.
کد خبر: ۸۶۲۱۹۲ تاریخ انتشار : ۱۴۰۲/۰۵/۱۷
چهار شرکت تأثیرگذار در زمینه هوش مصنوعی برای نظارت بر توسعه ایمن پیشرفتهترین مدلهای هوش مصنوعی نهاد نظارتی نوپا تشکیل دادند.
کد خبر: ۸۶۰۳۹۵ تاریخ انتشار : ۱۴۰۲/۰۵/۰۷
کتاب راهنمای اخلاقی هوش مصنوعی که با همکاری «پاپ فرانسیس» و مرکز اخلاق کاربردی «دانشگاه سانتا کلارا» نوشته شده، نشان میدهد واتیکان هم در حال ورود به کشمکشهای هوش مصنوعی است.
کد خبر: ۸۵۵۶۲۸ تاریخ انتشار : ۱۴۰۲/۰۴/۱۰
کر استارمر سیاستمدار بریتانیایی گفت: برخی از کارهایی که اکنون توسط مردم انجام میشود، توسط هوش مصنوعی انجام خواهد شد و خطر گسترش نابرابری بین ثروتمند و فقیر را باید پذیرفت.
کد خبر: ۸۵۲۵۵۱ تاریخ انتشار : ۱۴۰۲/۰۳/۲۴
«گوگل دیپمایند»، «اپنآیای» و «آنتروپیک» متعهد شدهاند بهمنظور تحقیق و ایمنی، دسترسی اولیه یا اولویتدار به مدلهای هوش مصنوعی را به دولت انگلیس ارائه کنند.
کد خبر: ۸۵۲۳۲۹ تاریخ انتشار : ۱۴۰۲/۰۳/۲۳
مدیر عامل اپنایآی گفت: سفر به شهرهای بزرگ، او را در مورد چشم انداز هماهنگی جهانی در زمینه هوش مصنوعی خوش بین کرده است.
کد خبر: ۸۵۲۱۶۸ تاریخ انتشار : ۱۴۰۲/۰۳/۲۲
یکی از اهداف مخالفان به کارگیری از هوش مصنوعی، حفاظت از مردم در برابر هرگونه تهدید هوش مصنوعی علیه سلامت و امنیت و همچنین محافظت از حقوق و ارزشهای انسانی در جوامع مختلف است.
کد خبر: ۸۴۶۹۶۱ تاریخ انتشار : ۱۴۰۲/۰۲/۲۲
پارلمان اروپا امروز یک قدم به تصویب قانونی برای نظاممندسازی ابزارهای هوش مصنوعی همچون چتجیپیتی نزدیک شد.
کد خبر: ۸۴۶۹۵۸ تاریخ انتشار : ۱۴۰۲/۰۲/۲۲
بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می توانند از آن استفاده کنند.
کد خبر: ۸۴۳۳۵۶ تاریخ انتشار : ۱۴۰۲/۰۲/۰۴
آخرین نسل هوش مصنوعی شرکت OpenAI با نام GPT-۴ رونمایی شده که انسان را بیش از پیش تحت تاثیر قرار میدهد، این چت بات جدید نسبت به نسخههای پیشین خود قابلیتهایی دارد که آن را متمایز میکند.
کد خبر: ۸۴۱۰۰۳ تاریخ انتشار : ۱۴۰۲/۰۱/۲۶
کمیسیون حفاظت از داده اتحادیه اروپا با ایجاد کارگروهی ویژه که روی چت بات GPT متمرکز است، اولین قدم را در تنظیم قوانین اجراییِ قابل تعمیم به حیطه هوش مصنوعی برداشت.
کد خبر: ۸۴۱۷۰۰ تاریخ انتشار : ۱۴۰۲/۰۱/۲۵
چت بات معروف جی پی تی متهم به نشر اکاذیب و ایجاد سوء پیشینه برای یک شهردار استرالیایی است و به همین دلیل OpenAI به عنوان مالک این ابزار هوش مصنوعی با احتمال پیگرد قضائی مواجه است.
کد خبر: ۸۴۰۹۱۰ تاریخ انتشار : ۱۴۰۲/۰۱/۲۰
رئیس جمهور آمریکا میگوید که شرکتهای فناوری در برابر مخاطراتی که ابزارهای هوش مصنوعی برای جامعه، امنیت ملی و اقتصادی ایجاد می کنند، مسئول هستند و کنگره هم باید قوانین مشخصی در این رابطه تدوین کند.
کد خبر: ۸۴۰۲۷۵ تاریخ انتشار : ۱۴۰۲/۰۱/۱۶
پاسکال کافمن، کارشناس هوش مصنوعی ظهور مدلهای زبانی مثل GPT-4 و GPT-3 را انقلابی در سودمندی توصیف کرد که باعث افزایش سرعت توسعهی تکنولوژیهای دیگر خواهد شد.
کد خبر: ۸۳۹۶۹۳ تاریخ انتشار : ۱۴۰۲/۰۱/۱۲
شرکت OpenAI انتظار دارد که مدل زبانی «جی پی تی ۵» تا پایان سال ۲۰۲۳ به هوش جامع مصنوعی دست پیدا کند.
کد خبر: ۸۳۹۶۸۵ تاریخ انتشار : ۱۴۰۲/۰۱/۱۲
شرکت گوگل، چت ربات خود را که قرار است با «جی پی تی» شرکت مایکروسافت رقابت کند، با تعیین شروطی ازجمله اعمال محدودیت سِنی، راه اندازی کرد.
کد خبر: ۸۳۸۶۵۱ تاریخ انتشار : ۱۴۰۲/۰۱/۰۳
با استفاده مجدد از زبالههای زیستی: