واژه‌ نامه هوش مصنوعی

بررسی بیش از ۸۰ عبارت و اصطلاح تخصصی حوزه هوش مصنوعی

واژه انگلیسی

معادل فارسی

مفهوم

Adversarial Machine Learning

یادگیری ماشین خصمانه

تکنیکی که در آن مدل ها برای فریب دادن مدل های دیگر با ارائه ورودی های فریبنده آموزش داده می‌شوند.

ALGORITHM

الگوریتم

مجموعه محدودی از قوانین رسمی (عملیات منطقی، دستورالعمل ها) که به شما امکان می دهد از عناصر ورودی نتیجه بگیرید. این مجموعه می‌تواند هدف یک فرآیند اجرای خودکار باشد و بر مدل‌هایی که از طریق یادگیری ماشین طراحی شده‌اند تکیه کند.

Application programming interface

رابط برنامه نویسی برنامه

یک API یا رابط برنامه نویسی برنامه، مجموعه ای از پروتکل ها است که نحوه تعامل دو نرم افزار با یکدیگر را تعیین می کند. API ها معمولاً به زبان های برنامه نویسی مانند C++ یا JavaScript نوشته می شوند.

AI ethics

اخلاق هوش مصنوعی

اخلاق هوش مصنوعی به موضوعاتی اشاره دارد که ذینفعان هوش مصنوعی مانند مهندسان و مقامات دولتی باید برای اطمینان از توسعه و استفاده مسئولانه این فناوری در نظر بگیرند. این به معنای اتخاذ و پیاده‌سازی سیستم‌هایی است که از یک رویکرد ایمن، ایمن، بی‌طرفانه و سازگار با محیط زیست برای هوش مصنوعی پشتیبانی می‌کنند.

ARTIFICIAL INTELLIGENCE (AI)

هوش مصنوعی

مجموعه ای از علوم، نظریه ها و فنون که هدف آنها بازتولید توانایی های شناختی انسان توسط ماشین است. هدف توسعه‌های کنونی این است که بتوان به یک ماشین وظایف پیچیده‌ای را که قبلاً به انسان محول شده بود، واگذار کرد.

BIG DATA

بیگ دیتا || کلان داده

اصطلاح "کلان داده" به مجموعه داده های ناهمگن بزرگ (داده های باز، داده های اختصاصی، داده های تجاری خریداری شده) اشاره دارد.

Bias

بایاس || سوگیری

سوگیری به خطاهای سیستماتیک در داده ها یا الگوریتم ها اشاره دارد که منجر به نتایج غیرمنصفانه یا تعصب آمیز می شود و اغلب به گروه های خاصی آسیب می رساند. این می تواند از داده های آموزشی مغرضانه، طراحی مدل معیوب، یا تعصبات اجتماعی ناشی شود.

Black Box

جعبه سیاه

در هوش مصنوعی، جعبه سیاه به سیستم یا مدلی اطلاق می شود که عملکرد داخلی آن شفاف نیست یا به راحتی توسط کاربران قابل درک نیست و توضیح اینکه چگونه ورودی های خاص به خروجی تبدیل می شوند را دشوار می کند. این عدم شفافیت می تواند مانع اعتماد، تفسیرپذیری و پاسخگویی در تصمیم گیری هوش مصنوعی شود.

Boosting

تقویت || بوستینگ

تقویت یک تکنیک یادگیری گروهی در هوش مصنوعی است که چندین یادگیرنده ضعیف، معمولا درخت‌های تصمیم‌گیری را ترکیب می‌کند تا یک مدل پیش‌بینی قوی را تشکیل دهد. این به طور متوالی هر مدل جدید را برای تصحیح خطاهای قبلی آموزش می دهد و دقت و عملکرد کلی را بهبود می بخشد.

BOT

بات || ربات

ربات یک برنامه نرم افزاری است که برای خودکارسازی وظایف طراحی شده است که اغلب رفتار انسان را شبیه سازی می کند تا اقدامات تکراری را به طور موثر انجام دهد. در هوش مصنوعی، ربات‌ها می‌توانند از اسکریپت‌های خودکار ساده تا عوامل مکالمه پیشرفته مانند ربات‌های گفتگو که با کاربران تعامل دارند، متغیر باشند.

چت بات

CHATBOT

عامل مکالمه ای که با کاربر خود گفتگو می کند (به عنوان مثال: روبات های همدل در دسترس بیماران، یا خدمات مکالمه خودکار در روابط با مشتری).

Classification

طبقه بندی

طبقه بندی نوعی یادگیری تحت نظارت در هوش مصنوعی است که در آن مدل یاد می گیرد داده ها را به کلاس ها یا برچسب های از پیش تعریف شده طبقه بندی کند. این شامل آموزش بر روی مجموعه داده های برچسب گذاری شده برای پیش بینی دقیق دسته داده های جدید و دیده نشده است.

Cognitive computing

رایانش شناختی

محاسبات شناختی در اصل همان هوش مصنوعی است. این یک مدل کامپیوتری است که بر تقلید از فرآیندهای فکری انسان مانند تشخیص الگو و یادگیری تمرکز دارد. تیم های بازاریابی گاهی از این اصطلاح برای از بین بردن رمز و راز علمی تخیلی هوش مصنوعی استفاده می کنند.

Computer vision

بینایی کامپیوتر یک حوزه بین رشته‌ای از علم و فناوری است که بر چگونگی درک رایانه‌ها از تصاویر و ویدیوها تمرکز دارد. برای مهندسان هوش مصنوعی، بینایی کامپیوتر به آنها اجازه می دهد تا فعالیت هایی را که معمولاً سیستم بینایی انسان انجام می دهد، خودکار کنند.

Convolutional Neural Network

شبکه عصبی کانولوشنال

یک شبکه عصبی کانولوشنال یک الگوریتم یادگیری عمیق است که به طور خاص برای پردازش داده های شبکه ساختار یافته مانند تصاویر طراحی شده است. از لایه‌های کانولوشنال برای یادگیری خودکار و تطبیقی ​​سلسله‌مراتب فضایی ویژگی‌ها استفاده می‌کند که آن را برای کارهایی مانند تشخیص و طبقه‌بندی تصویر بسیار مؤثر می‌کند.

Corpus

مجموعه نوشته‌ها

در هوش مصنوعی و زبان‌شناسی، پیکره مجموعه‌ای بزرگ و ساختاریافته از داده‌های نوشتاری یا گفتاری است که برای آموزش و ارزیابی مدل‌های پردازش زبان طبیعی جمع‌آوری می‌شود. این زمینه و مثال های لازم را برای کمک به الگوریتم ها برای درک و پردازش زبان انسان ارائه می دهد.

DATABASE

دیتا بیس || پایگاه داده

پایگاه داده یک «محفظه» است که داده‌هایی مانند اعداد، تاریخ یا کلمات را ذخیره می‌کند که می‌تواند توسط رایانه برای تولید اطلاعات مجددا پردازش شود. به عنوان مثال، اعداد و نام ها برای تشکیل یک فهرست جمع آوری و مرتب شده اند.

DATAMINING

داده کاوی|| دیتا ماینینگ

داده کاوی تجزیه و تحلیل حجم زیادی از داده ها و ارائه مدل ها، همبستگی ها و روندها را ممکن می سازد.

DATA SCIENCE

علوم داده || دیتاساینس

گروه بندی گسترده ای از ریاضیات، آمار، احتمال، محاسبات، تجسم داده ها برای استخراج دانش از مجموعه ای ناهمگون از داده ها (تصاویر، صدا، متن، داده های ژنومی، پیوندهای شبکه های اجتماعی، اندازه گیری های فیزیکی و غیره).

Dataset

دیتا ست

مجموعه داده مجموعه ای از نقاط داده یا نمونه هایی است که برای آموزش، اعتبارسنجی و آزمایش مدل های هوش مصنوعی استفاده می شود. معمولاً شامل داده‌های برچسب‌دار یا بدون برچسب می‌شود و به عنوان پایه‌ای برای الگوریتم‌های یادگیری ماشین برای یادگیری الگوها و انجام پیش‌بینی عمل می‌کند.

Deep learning

یادگیری عمیق || دیپ لرنینگ

یادگیری عمیق تابعی از هوش مصنوعی است که با یادگیری از نحوه ساختاردهی و پردازش اطلاعات برای تصمیم گیری از مغز انسان تقلید می کند. به جای تکیه بر الگوریتمی که فقط می تواند یک کار خاص را انجام دهد، این زیرمجموعه یادگیری ماشینی می تواند بدون نظارت از داده های ساختار نیافته یاد بگیرد.

Dimensionality Reduction

تقلیل ابعاد

تقلیل ابعاد فرآیندی در یادگیری ماشینی و هوش مصنوعی است که با هدف کاهش تعداد متغیرهای ورودی یا ویژگی‌های مورد بررسی انجام می‌شود. این مدل را با گرفتن مهم‌ترین جنبه‌های داده‌ها ساده می‌کند، در حالی که نویز و پیچیدگی محاسباتی را به حداقل می‌رساند، و اغلب عملکرد و قابلیت تفسیر مدل را بهبود می‌بخشد.

Ensemble Learning

Ensemble Learning یک تکنیک یادگیری ماشینی است که در آن چندین مدل (مانند درخت تصمیم یا شبکه‌های عصبی) برای بهبود عملکرد پیش‌بینی ترکیب می‌شوند. با تجمیع پیش‌بینی‌های مدل‌های فردی، روش‌های مجموعه اغلب به دقت و استحکام بهتری در مقایسه با استفاده از یک مدل واحد دست می‌یابند.

Expert System

سیستم خبره

یک سیستم خبره یک برنامه نرم افزاری هوش مصنوعی است که توانایی تصمیم گیری یک متخصص انسانی را در یک حوزه خاص تقلید می کند. از پایگاه دانشی از قوانین و اکتشافات، همراه با موتورهای استنتاج، برای ارائه مشاوره یا تصمیم گیری بر اساس داده های ورودی و پرسش های کاربر استفاده می کند.

Feature Extraction

استخراج ویژگی

استخراج ویژگی فرآیند تبدیل داده های خام به مجموعه ای از ویژگی ها است که نشان دهنده ویژگی ها یا الگوهای مرتبط است. در یادگیری ماشینی و هوش مصنوعی، هدف آن کاهش ابعاد داده‌ها، افزایش عملکرد پیش‌بینی‌کننده و بهبود کارایی محاسباتی با تمرکز بر آموزنده‌ترین جنبه‌های مجموعه داده است.

Feedforward Neural Network

شبکه عصبی پیشخور

شبکه عصبی پیشخور نوعی شبکه عصبی مصنوعی است که در آن اتصالات بین گره‌ها چرخه ایجاد نمی‌کنند، به این معنی که داده‌ها در یک جهت حرکت می‌کنند - از گره‌های ورودی از طریق لایه‌های پنهان به گره‌های خروجی. معمولاً در کارهایی مانند طبقه‌بندی و رگرسیون استفاده می‌شود، جایی که نورون‌های هر لایه داده‌ها را مستقل از لایه‌های قبلی و بعدی پردازش می‌کنند.

Fuzzy Logic

منطق فازی

منطق فازی نوعی منطق است که امکان استدلال تقریبی و تصمیم گیری را در شرایطی که منطق سنتی بولی ممکن است مناسب نباشد، می دهد. این به استدلال تقریبی می پردازد تا دقیق و از درجاتی از صدق به جای مقادیر دودویی درست/کاذب استفاده می کند. منطق فازی به ویژه در هوش مصنوعی برای مدیریت اطلاعات نامشخص یا نادرست مفید است و سیستم ها را قادر می سازد بر اساس مجموعه های فازی و متغیرهای زبانی تصمیم گیری کنند.

Generative Adversarial Network

شبکه‌های مولد تخاصمی

یک شبکه متخاصم مولد نوعی معماری شبکه عصبی است که از دو شبکه تشکیل شده است: یک مولد و یک متمایز. مولد نمونه های داده جدیدی مانند تصاویر ایجاد می کند که شبیه داده های آموزشی هستند، در حالی که تمایز دهنده تلاش می کند بین داده های واقعی و تولید شده تمایز قائل شود. از طریق آموزش خصمانه، هر دو شبکه به طور مکرر بهبود می یابند که منجر به تولید داده های مصنوعی واقعی می شود. GAN ها به طور گسترده در هوش مصنوعی برای کارهایی مانند تولید تصویر، سنتز ویدئو و تقویت داده ها استفاده می شوند.

Generative AI

هوش مصنوعی مولد

هوش مصنوعی مولد به سیستم‌ها و الگوریتم‌های هوش مصنوعی اطلاق می‌شود که توانایی ایجاد محتوای جدید مانند تصاویر، متن، صدا و حتی ویدیو را دارند که شبیه به داده‌های ورودی است که روی آن آموزش دیده است. از تکنیک‌هایی مانند شبکه‌های متخاصم مولد (GAN)، رمزگذارهای خودکار متغیر (VAE) و سایر مدل‌های یادگیری عمیق برای تولید خروجی‌های جدید استفاده می‌کند که ویژگی‌های آموخته‌شده از داده‌های آموزشی را نشان می‌دهد. هوش مصنوعی مولد برنامه‌هایی را در زمینه‌های خلاقانه، تولید محتوا و وظایف افزایش داده پیدا می‌کند.

Guardrails

نرده‌های محافظ

در زمینه هوش مصنوعی و یادگیری ماشین، نرده‌های محافظ به دستورالعمل‌های اخلاقی، اصول یا محدودیت‌هایی اشاره می‌کنند که برای اطمینان از اینکه سیستم‌های هوش مصنوعی رفتار اخلاقی، مسئولانه و ایمن دارند. این نرده‌های محافظ به کاهش خطرات احتمالی مانند تعصب، نقض حریم خصوصی یا پیامدهای ناخواسته برنامه‌های هوش مصنوعی کمک می‌کنند و استقرار هوش مصنوعی قابل اعتماد و سودمند را در حوزه‌های مختلف ترویج می‌کنند.

Genetic Algorithm

الگوریتم ژنتیک

الگوریتم ژنتیک یک تکنیک جستجو و بهینه سازی است که از اصول انتخاب طبیعی و ژنتیک الهام گرفته شده است. این شامل تکامل جمعیتی از راه‌حل‌های بالقوه در طول نسل‌های متوالی با اعمال عملیات‌هایی مانند انتخاب، متقاطع و جهش است. الگوریتم‌های ژنتیک در هوش مصنوعی و یادگیری ماشینی برای یافتن راه‌حل‌های بهینه برای مسائل پیچیده که در آن روش‌های سنتی ممکن است ناکارآمد یا غیرعملی باشند، استفاده می‌شوند.

Gradient Descent

گرادیان کاهشی

Gradient Descent یک الگوریتم بهینه‌سازی است که در یادگیری ماشین و هوش مصنوعی برای به حداقل رساندن تابع تلفات یک مدل با تنظیم مکرر پارامترهای مدل در جهت شیب‌دارترین نزول گرادیان استفاده می‌شود. این یک تکنیک اساسی برای آموزش شبکه‌های عصبی و مدل‌های دیگر است که هدف آن یافتن مجموعه‌ای از پارامترهای بهینه است که بهترین تناسب را با داده‌های آموزشی دارد.

Hallucination

پرتگویی

پرتگویی به پدیده ای اطلاق می شود که در آن یک مدل خروجی هایی نادرست یا غیرواقعی تولید می کند، که اغلب به دلیل تطبیق بیش از حد یا کمبود داده های آموزشی کافی است. این می تواند زمانی رخ دهد که یک مدل اطلاعاتی را پیش بینی یا تولید کند که با واقعیت یا وظیفه مورد نظر مطابقت ندارد و منجر به نتایج غیر قابل اعتماد شود.

Hyperparameter

هایپر پارامتر

در یادگیری ماشینی و هوش مصنوعی، هایپرپارامترها پارامترهایی هستند که قبل از شروع فرآیند یادگیری تنظیم می شوند. آنها خود فرآیند یادگیری را کنترل می کنند، مانند پیچیدگی مدل (تعداد لایه های پنهان در یک شبکه عصبی) یا نرخ یادگیری مورد استفاده در نزول گرادیان. فراپارامترها مستقیماً از داده ها یاد نمی گیرند بلکه بر اساس دانش قبلی، تجربه یا آزمون و خطا برای بهینه سازی عملکرد مدل تنظیم می شوند.

Image recognition

تشخیص تصویر

تشخیص تصویر یک کار بینایی کامپیوتری است که در آن یک سیستم هوش مصنوعی اشیا، صحنه ها یا الگوهای موجود در تصاویر دیجیتال را تجزیه و تحلیل و شناسایی می کند. این شامل استخراج ویژگی‌ها از تصاویر و استفاده از الگوریتم‌های یادگیری ماشین، مانند شبکه‌های عصبی کانولوشن (CNN) برای طبقه‌بندی یا تشخیص اشیاء درون تصاویر است. تشخیص تصویر کاربردهایی در زمینه های مختلف از جمله وسایل نقلیه خودران، تصویربرداری پزشکی و سیستم های امنیتی پیدا می کند.

K-nearest Neighbors (KNN)

الگوریتم کی-نزدیکترین همسایه

K-nearest Neighbors یک الگوریتم یادگیری ماشینی نظارت شده است که برای کارهای طبقه‌بندی و رگرسیون استفاده می‌شود. کلاس یا مقدار یک نقطه داده جدید را با در نظر گرفتن کلاس اکثریت یا مقدار میانگین k نزدیکترین همسایه خود در فضای ویژگی پیش بینی می کند. KNN ناپارامتریک و تنبل است، به این معنی که فرضیاتی در مورد توزیع داده ها نمی کند و مرحله آموزش را به زمان پیش بینی به تعویق می اندازد، و پیاده سازی و درک آن را ساده می کند.

Latent Dirichlet Allocation (LDA)

تخصیص دریکله پنهان

تخصیص دیریکله پنهان یک مدل احتمالی تولیدی است که در پردازش زبان طبیعی (NLP) و مدل‌سازی موضوعی استفاده می‌شود. فرض بر این است که اسناد ترکیبی از موضوعات هستند و هر موضوع توزیعی بر روی کلمات است. هدف LDA کشف موضوعات پنهان موجود در مجموعه‌ای از اسناد با تخصیص مکرر کلمات به موضوعات و تنظیم توزیع موضوع برای به حداکثر رساندن احتمال مشاهده اسناد است. به طور گسترده برای کشف مضامین یا موضوعات در مجموعه‌های متنی بزرگ و درک مجموعه‌های اسناد استفاده می‌شود.

Limited memory

حافظه محدود

در زمینه یادگیری ماشین، حافظه محدود معمولاً به الگوریتم‌ها و مدل‌هایی اشاره دارد که با محدود کردن مقدار داده‌های تاریخی که در طول محاسبات حفظ می‌کنند، استفاده از منابع را بهینه می‌کنند. این محدودیت به مدیریت پیچیدگی محاسباتی و نیازهای ذخیره سازی کمک می کند، به ویژه در سناریوهایی که پردازش مجموعه داده های بزرگ یا جریان های داده بلادرنگ درگیر است. مثال‌ها عبارتند از الگوریتم‌های یادگیری آنلاین و انواع خاصی از تکنیک‌های بهینه‌سازی مانند نزول گرادیان تصادفی با حافظه محدود (L-BFGS).

Linear Regression

رگرسیون خطی

رگرسیون خطی یک روش آماری است که برای یافتن روابط بین متغیرها استفاده می شود.

Logistic Regression

رگرسیون لجستیک

رگرسیون لجستیک یک روش آماری است که برای وظایف طبقه‌بندی باینری استفاده می‌شود، که در آن متغیر خروجی y احتمال وقوع یک رویداد را نشان می‌دهد (معمولاً 0 یا 1). این احتمال را با استفاده از یک تابع لجستیک مدل می کند، که هر ورودی با ارزش واقعی را به مقداری بین 0 و 1 نگاشت می کند.

Machine Learning (ML)

یادگیری ماشینی شاخه‌ای از هوش مصنوعی است که بر توسعه الگوریتم‌ها و مدل‌های آماری تمرکز دارد که رایانه‌ها را قادر می‌سازد تا از آنها یاد بگیرند و بر اساس داده‌ها و بدون برنامه‌نویسی صریح تصمیم‌گیری یا پیش‌بینی کنند. این شامل مدل‌های آموزشی بر روی داده‌های برچسب‌دار یا بدون برچسب برای تشخیص الگوها، انجام پیش‌بینی یا حل وظایف خاص است، در نتیجه عملکرد را در طول زمان از طریق تجربه بهبود می‌بخشد.

Manifold Learning

یادگیری منیفولد

یادگیری منیفولد مجموعه‌ای از تکنیک‌های مورد استفاده در یادگیری ماشینی و تحلیل داده‌ها برای کشف ساختار یا هندسه زیربنایی داده‌های با ابعاد بالا است. هدف آن کاهش ابعاد داده ها در عین حفظ ویژگی های مهم، مانند روابط محلی یا فاصله بین نقاط داده است. روش‌های یادگیری چندگانه به کشف روابط و الگوهای غیرخطی در داده‌ها کمک می‌کنند که ممکن است در فضاهای با ابعاد بالا پنهان شوند، و تجسم بهتر، خوشه‌بندی و درک مجموعه‌های داده پیچیده را تسهیل می‌کنند.

Markov Decision Process

فرآیند تصمیم گیری مارکوف

فرآیند تصمیم گیری مارکوف یک چارچوب ریاضی است که در یادگیری تقویتی و مسائل تصمیم گیری استفاده می شود. این شامل حالات، اقدامات، احتمالات انتقال، پاداش ها و یک عامل تخفیف است. عوامل در هر حالت بر اساس وضعیت فعلی و انتقال به حالت بعدی با توجه به احتمالات تعریف شده توسط مدل محیطی تصمیم می گیرند. هدف یافتن سیاستی است که پاداش تجمعی مورد انتظار را در طول زمان به حداکثر برساند.

Meta-Learning

متا لرنینگ

فرا-یادگیری، همچنین به عنوان یادگیری برای یادگیری شناخته می شود، به فرآیند یادگیری نحوه یادگیری اشاره دارد. این شامل توسعه الگوریتم‌ها و مدل‌هایی است که می‌توانند به طور خودکار یاد بگیرند و با وظایف یا محیط‌های جدید به سرعت و کارآمد سازگار شوند. فرا یادگیری روش‌هایی را برای استفاده از تجربیات یادگیری گذشته برای بهبود فرآیند یادگیری بررسی می‌کند، که اغلب بر روی کارهایی مانند یادگیری انتقالی، یادگیری چند مرحله‌ای و تطبیق دامنه در یادگیری ماشینی و هوش مصنوعی تمرکز می‌کند.

Model

مدل

مدل به یک نمایش یا چارچوب ریاضی اشاره دارد که الگوها را از داده ها یاد می گیرد. این شامل الگوریتم‌ها، پارامترها و مفروضاتی است که برای پیش‌بینی یا تصمیم‌گیری درباره داده‌های جدید استفاده می‌شوند. مدل‌ها می‌توانند از رگرسیون‌های خطی ساده تا شبکه‌های عصبی پیچیده را شامل شوند که هر کدام برای حل وظایف خاصی مانند طبقه‌بندی، رگرسیون، خوشه‌بندی یا یادگیری تقویتی طراحی شده‌اند.

Natural Language Processing (NLP)

پردازش زبان طبیعی

پردازش زبان طبیعی رشته‌ای از هوش مصنوعی است که بر روی توانمند ساختن رایانه‌ها برای درک، تفسیر و تولید زبان انسانی به روشی معنادار و مفید تمرکز دارد. NLP شامل وظایفی مانند پردازش متن، تجزیه و تحلیل احساسات، ترجمه ماشینی، شناسایی موجودیت نامگذاری شده و تشخیص گفتار است. از تکنیک‌هایی از زبان‌شناسی، علوم کامپیوتر و یادگیری ماشینی برای پر کردن شکاف بین زبان انسان و درک ماشین استفاده می‌کند و برنامه‌هایی مانند چت‌بات‌ها، ترجمه زبان و خلاصه‌سازی متن را قادر می‌سازد.

Neural Network

شبکه عصبی

شبکه عصبی یک مدل محاسباتی است که از ساختار و عملکرد مغز انسان الهام گرفته شده و از گره‌های به هم پیوسته (نورون‌ها) سازمان‌دهی شده در لایه‌ها تشکیل شده است. هر نورون ورودی ها را پردازش می کند، وزن اعمال می کند و نتیجه را از طریق یک تابع فعال سازی برای تولید یک خروجی عبور می دهد. شبکه‌های عصبی می‌توانند از طریق فرآیندی به نام آموزش، از داده‌ها یاد بگیرند و وزن‌ها را برای به حداقل رساندن خطاهای پیش‌بینی تنظیم کنند. آنها به طور گسترده ای در یادگیری ماشینی برای کارهایی مانند تشخیص تصویر، پردازش زبان طبیعی و یادگیری تقویتی استفاده می شوند، به دلیل توانایی آنها در ثبت الگوها و روابط پیچیده در داده ها.

Object Detection

تشخیص اشیا

تشخیص اشیا یک کار بینایی کامپیوتری است که شامل شناسایی و مکان یابی اشیاء مورد علاقه در یک تصویر یا فریم ویدیو می شود. نه تنها با تشخیص اینکه چه اشیایی در حال حاضر هستند، بلکه با تعیین محل قرارگیری آنها با جعبه های محدود، فراتر از طبقه بندی ساده تصاویر است. الگوریتم‌های تشخیص شی معمولاً از مدل‌های یادگیری عمیق مانند سریع‌تر R-CNN، YOLO (شما فقط یک بار نگاه می‌کنید) یا SSD (Single Shot MultiBox Detector) برای دستیابی به تشخیص دقیق و کارآمد چندین اشیا در سناریوهای دنیای واقعی استفاده می‌کنند.

One-shot Learning

یادگیری تک شات

یادگیری تک شات یک پارادایم یادگیری ماشینی است که در آن یک مدل یاد می‌گیرد که کلاس‌ها یا دسته‌های جدید را فقط از یک مثال یا چند نمونه در هر کلاس تشخیص دهد. برخلاف رویکردهای یادگیری ماشین سنتی که به مقادیر زیادی داده برچسب‌گذاری شده برای هر کلاس نیاز دارند، یادگیری تک شات بر بازنمایی‌های یادگیری متمرکز است که به خوبی از داده‌های آموزشی بسیار محدود تعمیم می‌یابد. این به ویژه در سناریوهایی مفید است که در آن به دست آوردن داده های برچسب گذاری شده فراوان دشوار یا غیرعملی است، مانند تشخیص پزشکی یا تشخیص رویدادهای نادر. تکنیک هایی مانند شبکه های سیامی، یادگیری متریک و فرا یادگیری اغلب در رویکردهای یادگیری تک شات استفاده می شود.

Overfitting

تطبیق بیش از حد

تطبیق بیش از حد در یادگیری ماشین زمانی اتفاق می‌افتد که یک مدل نه تنها الگوی اساسی داده‌های آموزشی، بلکه نویز و نوسانات تصادفی را نیز یاد می‌گیرد. این منجر به مدلی می‌شود که روی داده‌های آموزشی عملکرد خوبی دارد، اما نمی‌تواند به داده‌های جدید و دیده نشده تعمیم یابد. تطبیق بیش از حد معمولاً زمانی اتفاق می‌افتد که یک مدل نسبت به مقدار و تنوع داده‌های آموزشی بیش از حد پیچیده باشد و به جای یادگیری روابط زیربنایی منجر به حفظ کردن می‌شود. تکنیک‌های منظم‌سازی، اعتبارسنجی متقاطع و افزایش میزان داده‌های آموزشی، استراتژی‌های رایج برای کاهش بیش‌برازش هستند.

Pattern Recognition

شناسایی الگو

شناسایی الگو فرآیند شناسایی و تفسیر قانونمندی ها یا الگوهای درون داده ها است. در زمینه یادگیری ماشینی و هوش مصنوعی، شامل الگوریتم‌ها و تکنیک‌هایی است که رایانه‌ها را قادر می‌سازد الگوها را بر اساس داده‌های ورودی شناسایی و طبقه‌بندی کنند. وظایف تشخیص الگو شامل تشخیص تصویر و گفتار، تشخیص دست خط، تشخیص ناهنجاری و مدل‌سازی پیش‌بینی‌کننده و غیره است. این وظایف در کاربردهای مختلف از بینایی کامپیوتری و پردازش زبان طبیعی تا تشخیص پزشکی و کشف تقلب ضروری هستند.

Perceptron

پرسپترون

پرسپترون ساده ترین شکل شبکه عصبی است که از یک لایه واحد نورون تشکیل شده است که هر نورون مستقیماً به ورودی ها متصل است. مجموع وزنی ورودی های خود را محاسبه می کند و یک تابع فعال سازی را برای تولید خروجی اعمال می کند. پرسپترون ها معمولاً برای کارهای طبقه بندی باینری استفاده می شوند که در آن مرز تصمیم گیری خطی بین کلاس ها را یاد می گیرند. آنها بلوک های ساختمانی معماری شبکه های عصبی پیچیده تر را تشکیل می دهند و در توسعه شبکه های عصبی مصنوعی اساسی بودند.

Predictive Analytics

تجزیه و تحلیل پیش‌بینی کننده

تجزیه و تحلیل پیش‌بینی‌کننده، عمل استفاده از داده‌ها، الگوریتم‌های آماری و تکنیک‌های یادگیری ماشین برای شناسایی احتمال نتایج آینده بر اساس داده‌های تاریخی است. این شامل استخراج الگوها و روندها از داده ها برای پیش بینی رویدادها یا رفتارهای ناشناخته آینده است. تجزیه و تحلیل پیش‌بینی‌کننده در حوزه‌های مختلف، از جمله کسب‌وکار، امور مالی، مراقبت‌های بهداشتی، بازاریابی و تولید برای بهینه‌سازی تصمیم‌گیری، پیش‌بینی رفتار مشتری، کاهش خطرات و بهبود کارایی عملیاتی اعمال می‌شود.

Prescriptive analytics

تجزیه و تحلیل تجویزی

تجزیه و تحلیل تجویزی شکل پیشرفته‌ای از تجزیه و تحلیل است که از داده‌ها، الگوریتم‌های ریاضی و تکنیک‌های یادگیری ماشینی برای ارائه توصیه‌هایی در مورد اقداماتی که باید برای دستیابی به نتایج دلخواه انجام داد، استفاده می‌کند. نه تنها با پیش بینی نتایج آتی بلکه با پیشنهاد تصمیمات یا اقدامات بهینه برای دستیابی به اهداف یا اهداف خاص، فراتر از تحلیل توصیفی و پیش بینی کننده است. تجزیه و تحلیل تجویزی از تکنیک‌های بهینه‌سازی و شبیه‌سازی برای ارزیابی سناریوهای مختلف استفاده می‌کند و بهترین اقدام را بر اساس محدودیت‌ها، اولویت‌ها و اهداف تجاری توصیه می‌کند. در زمینه های مختلفی مانند مراقبت های بهداشتی، مالی، تدارکات و بازاریابی برای هدایت تصمیم گیری آگاهانه و بهبود عملکرد استفاده می شود.

Precision

دقت

دقت یک متریک است که در وظایف طبقه‌بندی دودویی و چند طبقه‌ای برای ارزیابی دقت پیش‌بینی‌های مثبت ساخته‌شده توسط یک مدل استفاده می‌شود. به عنوان نسبت پیش بینی های مثبت واقعی به تعداد کل پیش بینی های مثبت انجام شده توسط مدل تعریف می شود. دقت نشان می دهد که مدل زمانی که یک نتیجه مثبت را پیش بینی می کند چقدر دقیق یا دقیق است. دقت بالا به این معنی است که یک مدل پیش‌بینی‌های مثبت کاذب کمتری انجام می‌دهد، که در کارهایی که به حداقل رساندن موارد مثبت کاذب حیاتی است، مانند تشخیص‌های پزشکی یا تشخیص تقلب، مطلوب است.

Principal Component Analysis (PCA)

تجزیه و تحلیل اجزای اصلی

تجزیه و تحلیل اجزای اصلی تکنیکی است که برای کاهش ابعاد در تجزیه و تحلیل داده ها و یادگیری ماشین استفاده می شود. داده‌های با ابعاد بالا را به یک سیستم مختصات جدید (اجزای اصلی) تبدیل می‌کند که حداکثر واریانس داده‌ها را ثبت می‌کند. PCA جهت‌ها (مولفه‌های اصلی) را شناسایی می‌کند که در امتداد آنها داده‌ها بیشترین تغییر را دارند و داده‌ها را روی این مؤلفه‌ها پروژه می‌دهد و در عین حال مهم‌ترین الگوها یا روابط را حفظ می‌کند. به طور گسترده ای برای تجزیه و تحلیل داده های اکتشافی، تجسم، استخراج ویژگی و کاهش نویز در مجموعه داده هایی با ابعاد بالا استفاده می شود.

Prompt

پرامپت

یک «پرامپت» می‌تواند به دستورالعمل، پرس و جو یا درخواستی که به یک سیستم کامپیوتری داده می‌شود، به ویژه در زمینه تولید یا پاسخ به محتوای مبتنی بر متن اشاره داشته باشد. به عنوان نقطه شروع یا محرکی عمل می کند که سیستم را در ایجاد یک پاسخ یا خروجی منسجم و مرتبط راهنمایی می کند. در پردازش زبان طبیعی و هوش مصنوعی، پرامپت ها برای هدایت مدل‌هایی مانند GPT-3 برای تولید متنی که با هدف یا نتیجه دلخواه کاربر همسو باشد، بسیار مهم است.

Q-learning

کیو-لرنینگ

Q-learning یک الگوریتم یادگیری تقویتی است که برای آموزش عوامل برای تصمیم گیری در یک محیط مبتنی بر یادگیری آزمون و خطا استفاده می شود. هدف آن یافتن یک سیاست بهینه برای به حداکثر رساندن پاداش‌های انباشته در طول زمان است. Q-learning از یک جدول Q (یا تابع Q) برای ذخیره مطلوبیت مورد انتظار (Q-value) از انجام یک اقدام خاص در یک وضعیت معین استفاده می کند. عامل با انتخاب اقدامات بر اساس وضعیت فعلی محیط را بررسی می کند و مقادیر Q را بر اساس پاداش های دریافتی و حداکثر Q-value وضعیت بعدی به روز می کند. Q-learning بدون مدل است و می‌تواند محیط‌هایی با جابه‌جایی‌ها و پاداش‌های تصادفی را مدیریت کند، که باعث می‌شود به طور گسترده در سیستم‌های مستقل و بازی‌سازی استفاده شود.

Random Forest

جنگل تصادفی

جنگل تصادفی یک تکنیک یادگیری گروهی است که برای کارهای طبقه‌بندی و رگرسیون در یادگیری ماشین استفاده می‌شود. با ساخت تعداد زیادی درخت تصمیم در طول آموزش عمل می کند و حالت (برای طبقه بندی) یا پیش بینی میانگین (برای رگرسیون) درختان منفرد را خروجی می دهد. هر درخت در جنگل تصادفی بر روی زیرمجموعه‌ای تصادفی از داده‌های آموزشی آموزش داده می‌شود و از یک زیرمجموعه تصادفی از ویژگی‌ها برای تقسیم گره‌ها استفاده می‌کند، که به بهبود دقت و استحکام مدل در برابر برازش بیش از حد کمک می‌کند. جنگل های تصادفی همه کاره، آسان برای استفاده، و برای طیف گسترده ای از کاربردها، از جمله تشخیص پزشکی، پیش بینی مالی، و تشخیص تصویر موثر هستند.

Recurrent Neural Network (RNN)

شبکه عصبی بازگشتی

شبکه عصبی بازگشتی نوعی شبکه عصبی است که برای مدل‌سازی توالی و وظایف پردازشی طراحی شده است. بر خلاف شبکه های عصبی پیشخور، RNN ها دارای اتصالاتی بین گره هایی هستند که چرخه های جهت دار را تشکیل می دهند و به آن ها اجازه می دهد دینامیک زمانی را نشان دهند و دنباله های ورودی با طول های مختلف را مدیریت کنند. RNN ها یک حالت داخلی (حالت پنهان) را حفظ می کنند که اطلاعات مربوط به ورودی های قبلی را در دنباله ضبط می کند و آنها را برای کارهایی مانند پردازش زبان طبیعی (NLP)، تشخیص گفتار و پیش بینی سری های زمانی مناسب می کند. با این حال، آنها می توانند از مشکلات گرادیان ناپدید شدن یا انفجار در طول آموزش رنج ببرند، که منجر به توسعه معماری های پیشرفته تری مانند حافظه کوتاه مدت بلند مدت (LSTM) و واحد بازگشتی دردار (GRU) برای رسیدگی به این مسائل شده است.

Reinforcement Learning (RL)

یادگیری تقویتی

یادگیری تقویتی شاخه ای از یادگیری ماشینی است که با تصمیم گیری های متوالی مرتبط است. یاد می گیرد که با آزمون و خطا تصمیم گیری کند و هدف آن به حداکثر رساندن پاداش های انباشته است. در RL، یک عامل با یک محیط تعامل می کند، وضعیت محیط را مشاهده می کند، اقداماتی انجام می دهد و پاداش یا جریمه دریافت می کند. عامل سیاستی را می آموزد - نحوه ترسیم وضعیت ها به اقدامات - که پاداش بلندمدت خود را از طریق استراتژی های اکتشاف و بهره برداری به حداکثر می رساند. RL در رباتیک، بازی، سیستم‌های مستقل و اخیراً در بهینه‌سازی فرآیندهای صنعتی و درمان‌های بهداشتی کاربرد دارد.

Regularization

منظم سازی

منظم‌سازی تکنیکی است که در یادگیری ماشین و مدل‌سازی آماری برای جلوگیری از برازش بیش از حد و بهبود تعمیم مدل‌ها بر روی داده‌های دیده نشده استفاده می‌شود. این شامل اضافه کردن یک عبارت جریمه به تابع هدف در طول آموزش است که از پیچیده شدن بیش از حد مدل یا تطبیق نویز در داده های آموزشی جلوگیری می کند. تکنیک‌های منظم‌سازی شامل منظم‌سازی L1 (کند)، منظم‌سازی L2 (رج) و منظم‌سازی خالص الاستیک است که ضرایب مدل را برای اولویت‌بندی مدل‌های ساده‌تر یا مدل‌هایی با مقادیر پارامتر کوچک‌تر تنظیم می‌کنند. منظم‌سازی برای کنترل پیچیدگی مدل و بهبود عملکرد آن در داده‌های جدید و نادیده ضروری است.

ResNet (Residual Network)

ResNet یک معماری شبکه عصبی عمیق است که برای رسیدگی به مشکل گرادیان ناپدید شدن در شبکه‌های عصبی کانولوشنال بسیار عمیق (CNN) طراحی شده است. اتصالات پرش یا میانبرهایی را معرفی می کند که به شیب ها اجازه می دهد در طول آموزش مستقیماً در شبکه جریان داشته باشند و آموزش شبکه های بسیار عمیق تر (صدها لایه) را به طور مؤثر امکان پذیر می کند. معماری ResNet معمولاً از بلوک‌های باقیمانده تشکیل شده است که در آن هر بلوک دارای یک اتصال میانبر است که از یک یا چند لایه عبور می‌کند. این طراحی بهینه‌سازی آسان‌تر را تسهیل می‌کند و توانایی شبکه را برای یادگیری ویژگی‌های پیچیده بهبود می‌بخشد و ResNet را به طور گسترده در کارهایی مانند طبقه‌بندی تصویر، تشخیص اشیا و تقسیم‌بندی تصویر مورد استفاده قرار می‌دهد.

Root Mean Square Error

حظای جذر میانگین مربعات

ریشه میانگین مربعات خطا یک معیار رایج برای ارزیابی دقت مدل رگرسیون است. این مقدار میانگین تفاوت بین مقادیر پیش بینی شده و مقادیر واقعی را اندازه گیری می کند.

Scikit-Learn

Scikit-Learn یک کتابخانه یادگیری ماشین منبع باز محبوب برای پایتون است. ابزارهای ساده و کارآمدی را برای پیش پردازش داده ها، ساخت مدل یادگیری ماشین، ارزیابی و استقرار فراهم می کند. Scikit-Learn شامل طیف گسترده ای از الگوریتم ها و توابع کاربردی برای کارهایی مانند طبقه بندی، رگرسیون، خوشه بندی، کاهش ابعاد و انتخاب مدل است. این به خوبی مستند شده است، استفاده از آن آسان است و به طور یکپارچه با سایر کتابخانه های پایتون مانند NumPy، Pandas و Matplotlib ادغام می شود. Scikit-Learn به طور گسترده در تحقیقات دانشگاهی و صنعت برای توسعه برنامه های کاربردی یادگیری ماشین و انجام وظایف تجزیه و تحلیل داده ها به طور کارآمد استفاده می شود.

Semi-Supervised Learning

یادگیری نیمه نظارت شده

یادگیری نیمه نظارت شده یک الگوی یادگیری ماشینی است که در آن مدل از داده های برچسب دار و بدون برچسب یاد می گیرد. در بسیاری از سناریوهای دنیای واقعی، به دست آوردن داده های برچسب دار می تواند گران یا زمان بر باشد، در حالی که داده های بدون برچسب ممکن است فراوان و آسان تر جمع آوری شوند. هدف یادگیری نیمه نظارتی استفاده از این داده های بدون برچسب همراه با مقدار کمی از داده های برچسب دار برای بهبود عملکرد مدل است.

Sentiment Analysis

تجزیه و تحلیل احساسات

تجزیه و تحلیل احساسات یک تکنیک پردازش زبان طبیعی (NLP) است که برای تعیین احساسات یا عقاید بیان شده در متن استفاده می شود. این شامل طبقه بندی خودکار متن به عنوان مثبت، منفی یا خنثی بر اساس احساسات بیان شده است. الگوریتم های تجزیه و تحلیل احساسات، زمینه معنایی متن را برای درک احساسات منتقل شده توسط کلمات، عبارات یا جملات تجزیه و تحلیل می کنند.

Structured data

داده ساختار یافته

داده های ساختاریافته به داده هایی اطلاق می شود که به شیوه ای از پیش تعریف شده سازماندهی و قالب بندی می شوند، معمولاً در یک پایگاه داده یا صفحه گسترده، جایی که هر قطعه داده در یک فیلد یا ستون ثابت ذخیره می شود.

Spectral Clustering

خوشه‌بندی طیفی

خوشه‌بندی طیفی یک تکنیک خوشه‌بندی است که برای تقسیم‌بندی نقاط داده به خوشه‌ها بر اساس شباهت ویژگی‌هایشان استفاده می‌شود که معمولاً به صورت نمودار شباهت یا ماتریس میل نشان داده می‌شود.

Speech Recognition

تشخیص گفتار

تشخیص گفتار یک فناوری است که رایانه ها یا دستگاه ها را قادر می سازد تا زبان گفتاری را درک و تفسیر کنند. این شامل تبدیل کلمات یا عبارات گفتاری به متن یا دستوراتی است که یک سیستم کامپیوتری می تواند پردازش کند. سیستم‌های تشخیص گفتار معمولاً از تکنیک‌هایی از پردازش سیگنال و پردازش زبان طبیعی (NLP) برای تجزیه و تحلیل و تشخیص دقیق زبان گفتاری استفاده می‌کنند.

Spiking Neural Network

شبکه عصبی Spiking نوعی شبکه عصبی مصنوعی (ANN) است که از نزدیک رفتار نورون‌های بیولوژیکی و زمان‌بندی سنبله‌ها (پتانسیل‌های عمل) در مغز را تقلید می‌کند. برخلاف شبکه‌های عصبی مصنوعی سنتی (ANN) که نورون‌ها به طور مداوم شلیک می‌کنند، در SNN‌ها، نورون‌ها از طریق اسپک‌های گسسته‌ای که در زمان‌های خاص رخ می‌دهند، ارتباط برقرار می‌کنند.

Supervised Learning

یادگیری نظارت شده

یادگیری نظارت شده نوعی از یادگیری ماشینی است که در آن مدل بر روی یک مجموعه داده برچسب‌گذاری شده آموزش داده می‌شود، به این معنی که داده‌های ورودی و خروجی مورد نظر مربوطه در طول آموزش ارائه می‌شوند. هدف یادگیری نقشه برداری از ورودی ها به خروجی ها به منظور پیش بینی یا تصمیم گیری در مورد داده های جدید است.

Support Vector Machine (SVM)

ماشین بردار پشتیبان

ماشین بردار پشتیبان یک الگوریتم یادگیری نظارت شده قدرتمند است که برای کارهای طبقه بندی و رگرسیون استفاده می شود. SVM ها به ویژه در فضاهای با ابعاد بالا موثر هستند و قادر به گرفتن روابط پیچیده در داده ها از طریق استفاده از یک ابر صفحه هستند.

Token

توکن

در زمینه پردازش زبان طبیعی (NLP) و زبانشناسی محاسباتی، یک توکن به یک واحد اتمی یک زبان اشاره دارد. توکنها بلوک‌های ساختمانی هستند که پس از شکستن یک متن به واحدهای کوچک‌تر، که می‌توانند کلمات، علائم نگارشی یا سایر عناصر معنادار باشند، تولید می‌شوند.

TensorFlow

تنسور فلو

TensorFlow یک چارچوب یادگیری ماشین منبع باز است که توسط گوگل برای ساخت و آموزش مدل های یادگیری ماشین، به ویژه شبکه های عصبی عمیق توسعه یافته است. این یک اکوسیستم جامع از ابزارها، کتابخانه ها و منابع جامعه برای پشتیبانی از جنبه های مختلف توسعه و استقرار یادگیری ماشین ارائه می کند.

Text Mining

متن کاوی

متن کاوی، همچنین به عنوان تجزیه و تحلیل متن شناخته می شود، فرآیند استخراج اطلاعات و دانش مفید از داده های متنی بدون ساختار است. این شامل استفاده از تکنیک‌هایی از پردازش زبان طبیعی (NLP)، یادگیری ماشینی، و آمار برای تجزیه و تحلیل حجم زیادی از متن و کشف الگوها، گرایش‌ها و بینش‌ها است.

Transfer Learning

یادگیری انتقالی

یادگیری انتقالی یک تکنیک یادگیری ماشینی است که در آن یک مدل توسعه یافته برای یک کار به عنوان نقطه شروع برای یک مدل در کار دوم دوباره استفاده می شود. به جای آموزش یک مدل از ابتدا بر روی یک مجموعه داده بزرگ، انتقال یادگیری از دانش آموخته شده از وظایف یا حوزه های مرتبط برای بهبود کارایی و عملکرد یادگیری استفاده می کند.

Turing test

تست تورینگ

تست تورینگ که توسط آلن تورینگ پیشنهاد شده است، معیاری برای ارزیابی اینکه آیا یک ماشین می‌تواند هوش انسان‌مانند را از طریق مکالمه نشان دهد یا خیر است. در آزمون، یک قاضی انسانی از طریق متن با یک ماشین و انسان دیگر تعامل می کند بدون اینکه بداند کدام کدام است. اگر قاضی نتواند به طور قابل اعتمادی بین ماشین و انسان بر اساس پاسخ‌هایشان تمایز قائل شود، در نظر گرفته می‌شود که ماشین تست تورینگ را گذرانده است و توانایی شبیه‌سازی هوش انسان‌مانند در مکالمه زبان طبیعی را نشان می‌دهد.

Transfer Learning

یادگیری انتقالی

یادگیری انتقالی یک تکنیک یادگیری ماشینی است که در آن یک مدل توسعه یافته برای یک کار به عنوان نقطه شروع برای یک مدل در کار دوم دوباره استفاده می شود. به جای آموزش یک مدل از ابتدا بر روی یک مجموعه داده بزرگ، انتقال یادگیری از دانش آموخته شده از وظایف یا حوزه های مرتبط برای بهبود کارایی و عملکرد یادگیری استفاده می کند.

Unstructured data

داده ساختار نیافته

داده های ساختار نیافته به اطلاعاتی اطلاق می شود که فاقد یک مدل داده یا سازمان از پیش تعریف شده هستند و تجزیه و تحلیل آن را با استفاده از روش های سنتی پردازش داده ها چالش برانگیزتر می کند. برخلاف داده‌های ساختاریافته، که به‌خوبی در پایگاه‌های داده با فیلدهای ثابت قرار می‌گیرند، داده‌های بدون ساختار در قالب‌هایی مانند اسناد متنی، ایمیل‌ها، پست‌های رسانه‌های اجتماعی، ویدئوها و ضبط‌های صوتی وجود دارند. استخراج بینش معنادار از داده‌های بدون ساختار نیاز به تکنیک‌های تخصصی از پردازش زبان طبیعی (NLP)، پردازش تصویر، و یادگیری ماشینی برای تفسیر و استخراج اطلاعات، الگوها و روندهای مفید از این منابع داده‌ای متنوع دارد.

Unsupervised learning

یادگیری نظارت نشده

یادگیری نظارت نشده نوعی از یادگیری ماشینی است که در آن مدل بر روی داده های بدون برچسب آموزش می بیند، به این معنی که الگوریتم الگوها و ساختارها را از داده های ورودی بدون بازخورد صریح یا نتایج از پیش تعریف شده می آموزد. برخلاف یادگیری تحت نظارت، که از داده های برچسب گذاری شده برای پیش بینی استفاده می کند، هدف یادگیری بدون نظارت، کشف الگوها یا روابط پنهان در داده ها است.

Variational Autoencoder

رمزگذار خودکار متغیر نوعی شبکه عصبی است که برای یادگیری بدون نظارت و مدل سازی تولیدی داده ها استفاده می شود. این رمزگذارهای خودکار سنتی را با ترکیب تکنیک‌های احتمالی برای تولید نقاط داده جدید مشابه آنچه در مجموعه داده آموزشی است، گسترش می‌دهد.

Voice Recognition

تشخیص صدا

تشخیص صدا که به عنوان تشخیص گفتار نیز شناخته می شود، فناوری است که رایانه ها یا دستگاه ها را قادر می سازد تا گفتار انسان را تفسیر و درک کنند. این شامل تبدیل زبان گفتاری به متن یا دستوراتی است که می تواند توسط سیستم های کامپیوتری پردازش شود.

Zero-shot Learning

یادگیری صفر شات یک پارادایم یادگیری ماشینی است که در آن یک مدل برای تشخیص و طبقه بندی اشیا یا وظایف بدون دیدن هیچ نمونه ای از کلاس های هدف در طول آموزش آموزش می بیند. در عوض، مدل یاد می‌گیرد که از کلاس‌های دیده‌شده قبلی و روابط معنایی بین آنها تعمیم دهد.

آیا می‌خواهید ۹ ابزار هوش مصنوعی برتر جهان را با هم یاد بگیرید؟

۴۱۵ دقیقه ویدئو آموزشی،

۴۲۰ هزار تومان

با تخفیف 76 درصدی فقط 99 هزار تومان
فرصت محدود