Web Analytics Made Easy - Statcounter
به نقل از «دانا»
2024-04-27@11:51:07 GMT

او یک فرشته بود...

تاریخ انتشار: ۱۴ آذر ۱۴۰۱ | کد خبر: ۳۶۵۳۹۷۵۵

او یک فرشته بود...

به یاد شهید سید روح الله عجمیان که در آشوب‌های ۱۴۰۱ لحظه‌ای از تاریخ عاشورا با شهادت غریبانه‌اش زندگی کرد تا شاید کمی شبیه کسی باشد که دوستش دارد...

به گزارش شبکه اطلاع رسانی راه دانا؛ تاریخ فقط تکرار نمی‌شود، ما  تاریخ را زندگی می‌کنیم...گاهی انقلاب را ، گاهی جنگو گاهی عاشورا ... می‌گویند آدم‌ها شبیه به کسانی می‌شوند که دوستش دارند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

..به یاد شهید سید روح الله عجمیان که  در آشوب‌های ۱۴۰۱ لحظه‌ای از تاریخ عاشورا با شهادت غریبانه‌اش زندگی کرد تا شاید کمی شبیه کسی باشد که دوستش دارد...

 

منبع: دانا

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.dana.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «دانا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۵۳۹۷۵۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

فناوری شبیه سازی Voice Engine چه خطراتی دارد؟

آزمایش‌کنندگان اولیه فناوری Voice Engine پذیرفته اند تا بدون رضایت افراد هویت آنها جعل نشود و توضیح دادند که صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

اخیراً نوع جدیدی از دیپ فیک معروف به «کلونینگ صدا» ظاهر شده است که از هوش مصنوعی (AI) برای تقلید صدای شما استفاده می‌کند.

 OpenAI، سازنده ChatGPT، در توسعه از نرم افزار شبیه سازی صوتی جدیدتر است، اما آن را برای عموم منتشر نمی‌کند.

شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد. این فناوری مشکوک می‌تواند صدای هر کسی را تنها در ۱۵ ثانیه پس از سخنرانی ضبط شده کپی کند.

شرکت OpenAI استفاده عمومی از این فناوری را "بسیار خطرناک" در نظر گرفت.

این شرکت در بیانیه‌ای گفت: ما می‌دانیم که تولید صوتی که صدای مردم را تقلید می‌کند، خطرات قابل‌توجهی را به همراه دارد، و به‌ویژه در سال‌های انتخاباتی مهم است.

OpenAI توضیح داد که قصد دارد این فناوری را با برخی آزمایش کند، "اما در حال حاضر آن را به خاطر خطرات بالقوه‌ای که دارد، در مقیاس بزرگ منتشر نخواهد کرد".

همچنین توضیح داد که آزمایش‌کنندگان اولیه Voice Engine موافقت کردند که بدون رضایت آنها جعل هویت افراد را جعل نکنند و اینکه این صدا‌ها توسط هوش مصنوعی ایجاد شده‌اند.

تعدادی از استارت‌آپ‌ها در حال حاضر فناوری بازتولید صدا را می‌فروشند که برخی از آنها در دسترس عموم یا مشتریان تجاری منتخب مانند استودیو‌های سرگرمی است.

منبع: المیادین

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • نفس بازغی و شهاب حسینی در پشت صحنه گناه فرشته | ببینید
  • شایعه جنجالی درباره دستمزد شهاب حسینی در سریال گناه فرشته
  • (ویدئو) تصاویر هولناک از کفتار‌هایی که به خودشان هم رحم نمی‌کنند | خوردن گوش یک کفتار توسط دوستش!
  • زمینه‌سازان شهادت امام حسین (ع)
  • ساخت مستند تصویری شبیه‌سازی حرم مطهر امام حسین (ع) در شیراز
  • پست عاشقانه نوید محمدزاده برای تولد فرشته حسینی
  • تاریخ و ساعت دقیق پخش سریال بدل علی مشهدی
  • علیرضا فغانی چیزی شبیه به کولینا
  • فناوری شبیه سازی Voice Engine چه خطراتی دارد؟
  • پاسداران بیانات رهبری را برای خود حجت شرعی می‌دانند