چت جی پی تی
آژانس حفاظت از داده ایتالیا پس از تحقیقات درباره استفاده اوپن ای آی از داده های خصوصی کاربران برای توسعه هوش مصنوعی چت جیپیتی را ۱۵ میلیون یورو جریمه کرد.
کد خبر: ۹۴۷۶۴۴ تاریخ انتشار : ۱۴۰۳/۱۰/۰۱
چت جی پی تی اکنون میتواند مکالمه تصویری با کاربران پلاس، پرو در iOS و اندروید داشته باشد.
کد خبر: ۹۴۶۳۷۴ تاریخ انتشار : ۱۴۰۳/۰۹/۲۴
برخی شرکتها از محتوا و دادههای شخصی کاربران برای آموزش مدل های هوش مصنوعی مولد و ابزارهای دیگر استفاده میکنند؛ اما برای جلوگیری از این اتفاق چه باید کرد؟
کد خبر: ۹۳۶۰۱۰ تاریخ انتشار : ۱۴۰۳/۰۷/۲۳
به گفته کارشناسان، چین در حوزه مدلهای بزرگ زبانی (LLMs) حدود یک سال از ایالات متحده عقبتر است.
کد خبر: ۹۳۳۶۹۷ تاریخ انتشار : ۱۴۰۳/۰۷/۰۸
در این گزارش به صورت خلاصه به بررسی داغترین موضوعات و پیشرفتهای هوش مصنوعی در سال ۲۰۲۵ میپردازیم.
کد خبر: ۹۳۳۲۷۲ تاریخ انتشار : ۱۴۰۳/۰۷/۰۸
چت جی پی تی برای مشترکانی که حق عضویت پرداخت میکنند «حالت صوتی پیشرفته» را به تازگی فعال کرده است و این ویژگی به حدی شبیه به حالتهای انسانی است که با نشانههای کلامی و احساسی متعدد میتواند کاربران را به مرز صمیمیت و درگیری عاطفی بکشاند.
کد خبر: ۹۳۱۸۵۱ تاریخ انتشار : ۱۴۰۳/۰۶/۳۱
یکی از پرسشهای مهم در بازار داغ هوش مصنوعی این است که با گسترش ماشینهای هوشمند آیا هوش انسانی دیگر بی ارزش میشود؟ یک دانشمند هوش مصنوعی از دانشگاه کمبریج با استدلالهایی به این سؤال پاسخ منفی داده است.
کد خبر: ۹۳۲۱۷۸ تاریخ انتشار : ۱۴۰۳/۰۶/۲۸
اپن ایآی اعلام کرد که کمیته ایمنی این شرکت به عنوان یک نهاد مستقل بر فرایندهای امنیتی و ایمنی توسعه و استقرار مدل هوش مصنوعی این شرکت نظارت خواهد کرد.
کد خبر: ۹۳۲۰۷۶ تاریخ انتشار : ۱۴۰۳/۰۶/۲۷
دانشآموزان و دانشجویان میتوانند از مزایای هوش مصنوعی بهره ببرند تا یادگیری مؤثرتری داشته باشند، مشروط بر اینکه از آن به صورت اخلاقی و مسئولانه استفاده کنند.
کد خبر: ۹۳۱۹۹۲ تاریخ انتشار : ۱۴۰۳/۰۶/۲۶
مطالعه جدید نشان میدهد هوش مصنوعی میتواند افرادی را که توهم توطئه دارند متقاعد کند که در اشتباه هستند.
کد خبر: ۹۳۱۷۷۲ تاریخ انتشار : ۱۴۰۳/۰۶/۲۶
جدیدترین نسخه هوش مصنوعی که شرکت اپنای آی معرفی کرده است توانایی «اندیشیدن» دارد و شباهت آن با انسان به حدی زیاد شده که با برترین متخصصان در مقطع دکتری رشتههای مختلف رقابت میکند.
کد خبر: ۹۳۱۶۶۹ تاریخ انتشار : ۱۴۰۳/۰۶/۲۵
شرکتهای هوش مصنوعی امیدوارند که افزودن دادههای بیشتر به مدلهایشان باعث افزایش عملکرد آنها در نهایت منجر به ایجاد هوشی در سطح انسان شود.
کد خبر: ۹۲۸۱۹۴ تاریخ انتشار : ۱۴۰۳/۰۶/۰۳
آنا گزارش میدهد؛
موج هیجان هوش مصنوعی چه زمانی فروکش میکند؟/ گذر از قله توهم به استفاده مفید از فناوری
هوش مصنوعی مولد نیز مانند بسیاری از فناوریهای جدید، مسیری را دنبال میکند که به عنوان چرخه پیشرفت گارتنر شناخته میشود، در حال حاضر این فناوری در اوج انتظارات قرار دارد و هنوز در حال پیشرفت است و دوتا پنج سال تا کامل شدن فاصله دارد.
کد خبر: ۹۲۸۵۱۵ تاریخ انتشار : ۱۴۰۳/۰۵/۳۱
احمد رحیمی، استادیار فناوری آموزشی دانشگاه فلوریدا در نشست «نگاهی به حال و آینده رشته فن آوری آموزشی در عصر هوش مصنوعی» مطرح کرد که هوش مصنوعی با تمام تعاریفهای موجود هیچگاه قابلیت پاسخگویی به این سوال که: «ماهیت کاری که میکند، چیست؟» را ندارد.
کد خبر: ۹۲۸۴۵۱ تاریخ انتشار : ۱۴۰۳/۰۵/۲۹
شرکتهای چینی به کمک مدلهای جدید و پیشرفته با هوش مصنوعیهای هکر مبارزه میکنند.
کد خبر: ۹۲۸۴۳۷ تاریخ انتشار : ۱۴۰۳/۰۵/۲۹
شرکت هوش مصنوعی اُپنای آی حسابهای کاربری یک گروه ایرانی را با ادعای نفوذ در انتخابات آمریکا مسدود کرد. هنوز هیچ شواهد مستند و اثبات شدهای در خصوص این اتهام از سوی اُپنای آی ارائه نشده است.
کد خبر: ۹۲۸۰۳۱ تاریخ انتشار : ۱۴۰۳/۰۵/۲۷
در سالهای اخیر، حوزه هوش مصنوعی پیشرفتهای چشمگیری در پردازش زبان طبیعی و تولید مکالمه داشته و قطعاً یکی از پیشرفتهای قابل توجه، توسعه چتجیپیتی بوده است.
کد خبر: ۹۲۷۱۶۰ تاریخ انتشار : ۱۴۰۳/۰۵/۲۲
در گفتوگو با آنا مطرح شد؛ (۱)
لزوم ایجاد مدلهای بزرگ زبانی بومی/ با توسعه یک مدل قابل رقابت مانند چت جیپیتی فاصله داریم
استادتمام گروه هوش مصنوعی دانشکدگان فنی دانشگاه تهران گفت: با توجه به زیرساختهای پردازشی موجود در کشور نمیتوانیم به یک مدل قابل رقابت مانند چت جی پی تی برسیم.
کد خبر: ۹۲۶۳۳۴ تاریخ انتشار : ۱۴۰۳/۰۵/۲۱
تحلیلگران معتقدند که افزایش تعداد افرادی که از ابزارهای هوش مصنوعی از جمله چت جیپیتی استفاده میکنند، در حال از بین بردن سلطه گوگل است.
کد خبر: ۹۲۶۶۲۵ تاریخ انتشار : ۱۴۰۳/۰۵/۱۹
یافتههای یک مطالعه جدید نشان میدهد که چت جیپیتی در تشخیص بیماری عملکرد متوسطی دارد و تنها در ۴۹ درصد موارد درست عمل میکند.
کد خبر: ۹۲۶۴۲۱ تاریخ انتشار : ۱۴۰۳/۰۵/۱۸