او یک فرشته بود...
تاریخ انتشار: ۱۴ آذر ۱۴۰۱ | کد خبر: ۳۶۵۳۹۷۵۵
به یاد شهید سید روح الله عجمیان که در آشوبهای ۱۴۰۱ لحظهای از تاریخ عاشورا با شهادت غریبانهاش زندگی کرد تا شاید کمی شبیه کسی باشد که دوستش دارد...
به گزارش شبکه اطلاع رسانی راه دانا؛ تاریخ فقط تکرار نمیشود، ما تاریخ را زندگی میکنیم...گاهی انقلاب را ، گاهی جنگو گاهی عاشورا ... میگویند آدمها شبیه به کسانی میشوند که دوستش دارند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
منبع: دانا
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.dana.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «دانا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۵۳۹۷۵۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
فناوری شبیه سازی Voice Engine چه خطراتی دارد؟
آزمایشکنندگان اولیه فناوری Voice Engine پذیرفته اند تا بدون رضایت افراد هویت آنها جعل نشود و توضیح دادند که صداها توسط هوش مصنوعی ایجاد شدهاند.
اخیراً نوع جدیدی از دیپ فیک معروف به «کلونینگ صدا» ظاهر شده است که از هوش مصنوعی (AI) برای تقلید صدای شما استفاده میکند.
OpenAI، سازنده ChatGPT، در توسعه از نرم افزار شبیه سازی صوتی جدیدتر است، اما آن را برای عموم منتشر نمیکند.
شرکت OpenAI فناوری Voice Engine خود را جمعه گذشته رونمایی کرد. این فناوری مشکوک میتواند صدای هر کسی را تنها در ۱۵ ثانیه پس از سخنرانی ضبط شده کپی کند.
شرکت OpenAI استفاده عمومی از این فناوری را "بسیار خطرناک" در نظر گرفت.
این شرکت در بیانیهای گفت: ما میدانیم که تولید صوتی که صدای مردم را تقلید میکند، خطرات قابلتوجهی را به همراه دارد، و بهویژه در سالهای انتخاباتی مهم است.
OpenAI توضیح داد که قصد دارد این فناوری را با برخی آزمایش کند، "اما در حال حاضر آن را به خاطر خطرات بالقوهای که دارد، در مقیاس بزرگ منتشر نخواهد کرد".
همچنین توضیح داد که آزمایشکنندگان اولیه Voice Engine موافقت کردند که بدون رضایت آنها جعل هویت افراد را جعل نکنند و اینکه این صداها توسط هوش مصنوعی ایجاد شدهاند.
تعدادی از استارتآپها در حال حاضر فناوری بازتولید صدا را میفروشند که برخی از آنها در دسترس عموم یا مشتریان تجاری منتخب مانند استودیوهای سرگرمی است.
منبع: المیادین
باشگاه خبرنگاران جوان علمی پزشکی فناوری