واژه نامه هوش مصنوعی
بررسی بیش از ۸۰ عبارت و اصطلاح تخصصی حوزه هوش مصنوعی
واژه انگلیسی
معادل فارسی
مفهوم
Adversarial Machine Learning
یادگیری ماشین خصمانه
تکنیکی که در آن مدل ها برای فریب دادن مدل های دیگر با ارائه ورودی های فریبنده آموزش داده میشوند.
ALGORITHM
الگوریتم
مجموعه محدودی از قوانین رسمی (عملیات منطقی، دستورالعمل ها) که به شما امکان می دهد از عناصر ورودی نتیجه بگیرید. این مجموعه میتواند هدف یک فرآیند اجرای خودکار باشد و بر مدلهایی که از طریق یادگیری ماشین طراحی شدهاند تکیه کند.
Application programming interface
رابط برنامه نویسی برنامه
یک API یا رابط برنامه نویسی برنامه، مجموعه ای از پروتکل ها است که نحوه تعامل دو نرم افزار با یکدیگر را تعیین می کند. API ها معمولاً به زبان های برنامه نویسی مانند C++ یا JavaScript نوشته می شوند.
AI ethics
اخلاق هوش مصنوعی
اخلاق هوش مصنوعی به موضوعاتی اشاره دارد که ذینفعان هوش مصنوعی مانند مهندسان و مقامات دولتی باید برای اطمینان از توسعه و استفاده مسئولانه این فناوری در نظر بگیرند. این به معنای اتخاذ و پیادهسازی سیستمهایی است که از یک رویکرد ایمن، ایمن، بیطرفانه و سازگار با محیط زیست برای هوش مصنوعی پشتیبانی میکنند.
ARTIFICIAL INTELLIGENCE (AI)
هوش مصنوعی
مجموعه ای از علوم، نظریه ها و فنون که هدف آنها بازتولید توانایی های شناختی انسان توسط ماشین است. هدف توسعههای کنونی این است که بتوان به یک ماشین وظایف پیچیدهای را که قبلاً به انسان محول شده بود، واگذار کرد.
BIG DATA
بیگ دیتا || کلان داده
اصطلاح "کلان داده" به مجموعه داده های ناهمگن بزرگ (داده های باز، داده های اختصاصی، داده های تجاری خریداری شده) اشاره دارد.
Bias
بایاس || سوگیری
سوگیری به خطاهای سیستماتیک در داده ها یا الگوریتم ها اشاره دارد که منجر به نتایج غیرمنصفانه یا تعصب آمیز می شود و اغلب به گروه های خاصی آسیب می رساند. این می تواند از داده های آموزشی مغرضانه، طراحی مدل معیوب، یا تعصبات اجتماعی ناشی شود.
Black Box
جعبه سیاه
در هوش مصنوعی، جعبه سیاه به سیستم یا مدلی اطلاق می شود که عملکرد داخلی آن شفاف نیست یا به راحتی توسط کاربران قابل درک نیست و توضیح اینکه چگونه ورودی های خاص به خروجی تبدیل می شوند را دشوار می کند. این عدم شفافیت می تواند مانع اعتماد، تفسیرپذیری و پاسخگویی در تصمیم گیری هوش مصنوعی شود.
Boosting
تقویت || بوستینگ
تقویت یک تکنیک یادگیری گروهی در هوش مصنوعی است که چندین یادگیرنده ضعیف، معمولا درختهای تصمیمگیری را ترکیب میکند تا یک مدل پیشبینی قوی را تشکیل دهد. این به طور متوالی هر مدل جدید را برای تصحیح خطاهای قبلی آموزش می دهد و دقت و عملکرد کلی را بهبود می بخشد.
BOT
بات || ربات
ربات یک برنامه نرم افزاری است که برای خودکارسازی وظایف طراحی شده است که اغلب رفتار انسان را شبیه سازی می کند تا اقدامات تکراری را به طور موثر انجام دهد. در هوش مصنوعی، رباتها میتوانند از اسکریپتهای خودکار ساده تا عوامل مکالمه پیشرفته مانند رباتهای گفتگو که با کاربران تعامل دارند، متغیر باشند.
چت بات
CHATBOT
عامل مکالمه ای که با کاربر خود گفتگو می کند (به عنوان مثال: روبات های همدل در دسترس بیماران، یا خدمات مکالمه خودکار در روابط با مشتری).
Classification
طبقه بندی
طبقه بندی نوعی یادگیری تحت نظارت در هوش مصنوعی است که در آن مدل یاد می گیرد داده ها را به کلاس ها یا برچسب های از پیش تعریف شده طبقه بندی کند. این شامل آموزش بر روی مجموعه داده های برچسب گذاری شده برای پیش بینی دقیق دسته داده های جدید و دیده نشده است.
Cognitive computing
رایانش شناختی
محاسبات شناختی در اصل همان هوش مصنوعی است. این یک مدل کامپیوتری است که بر تقلید از فرآیندهای فکری انسان مانند تشخیص الگو و یادگیری تمرکز دارد. تیم های بازاریابی گاهی از این اصطلاح برای از بین بردن رمز و راز علمی تخیلی هوش مصنوعی استفاده می کنند.
Computer vision
بینایی کامپیوتر یک حوزه بین رشتهای از علم و فناوری است که بر چگونگی درک رایانهها از تصاویر و ویدیوها تمرکز دارد. برای مهندسان هوش مصنوعی، بینایی کامپیوتر به آنها اجازه می دهد تا فعالیت هایی را که معمولاً سیستم بینایی انسان انجام می دهد، خودکار کنند.
Convolutional Neural Network
شبکه عصبی کانولوشنال
یک شبکه عصبی کانولوشنال یک الگوریتم یادگیری عمیق است که به طور خاص برای پردازش داده های شبکه ساختار یافته مانند تصاویر طراحی شده است. از لایههای کانولوشنال برای یادگیری خودکار و تطبیقی سلسلهمراتب فضایی ویژگیها استفاده میکند که آن را برای کارهایی مانند تشخیص و طبقهبندی تصویر بسیار مؤثر میکند.
Corpus
مجموعه نوشتهها
در هوش مصنوعی و زبانشناسی، پیکره مجموعهای بزرگ و ساختاریافته از دادههای نوشتاری یا گفتاری است که برای آموزش و ارزیابی مدلهای پردازش زبان طبیعی جمعآوری میشود. این زمینه و مثال های لازم را برای کمک به الگوریتم ها برای درک و پردازش زبان انسان ارائه می دهد.
DATABASE
دیتا بیس || پایگاه داده
پایگاه داده یک «محفظه» است که دادههایی مانند اعداد، تاریخ یا کلمات را ذخیره میکند که میتواند توسط رایانه برای تولید اطلاعات مجددا پردازش شود. به عنوان مثال، اعداد و نام ها برای تشکیل یک فهرست جمع آوری و مرتب شده اند.
DATAMINING
داده کاوی|| دیتا ماینینگ
داده کاوی تجزیه و تحلیل حجم زیادی از داده ها و ارائه مدل ها، همبستگی ها و روندها را ممکن می سازد.
DATA SCIENCE
علوم داده || دیتاساینس
گروه بندی گسترده ای از ریاضیات، آمار، احتمال، محاسبات، تجسم داده ها برای استخراج دانش از مجموعه ای ناهمگون از داده ها (تصاویر، صدا، متن، داده های ژنومی، پیوندهای شبکه های اجتماعی، اندازه گیری های فیزیکی و غیره).
Dataset
دیتا ست
مجموعه داده مجموعه ای از نقاط داده یا نمونه هایی است که برای آموزش، اعتبارسنجی و آزمایش مدل های هوش مصنوعی استفاده می شود. معمولاً شامل دادههای برچسبدار یا بدون برچسب میشود و به عنوان پایهای برای الگوریتمهای یادگیری ماشین برای یادگیری الگوها و انجام پیشبینی عمل میکند.
Deep learning
یادگیری عمیق || دیپ لرنینگ
یادگیری عمیق تابعی از هوش مصنوعی است که با یادگیری از نحوه ساختاردهی و پردازش اطلاعات برای تصمیم گیری از مغز انسان تقلید می کند. به جای تکیه بر الگوریتمی که فقط می تواند یک کار خاص را انجام دهد، این زیرمجموعه یادگیری ماشینی می تواند بدون نظارت از داده های ساختار نیافته یاد بگیرد.
Dimensionality Reduction
تقلیل ابعاد
تقلیل ابعاد فرآیندی در یادگیری ماشینی و هوش مصنوعی است که با هدف کاهش تعداد متغیرهای ورودی یا ویژگیهای مورد بررسی انجام میشود. این مدل را با گرفتن مهمترین جنبههای دادهها ساده میکند، در حالی که نویز و پیچیدگی محاسباتی را به حداقل میرساند، و اغلب عملکرد و قابلیت تفسیر مدل را بهبود میبخشد.
Ensemble Learning
Ensemble Learning یک تکنیک یادگیری ماشینی است که در آن چندین مدل (مانند درخت تصمیم یا شبکههای عصبی) برای بهبود عملکرد پیشبینی ترکیب میشوند. با تجمیع پیشبینیهای مدلهای فردی، روشهای مجموعه اغلب به دقت و استحکام بهتری در مقایسه با استفاده از یک مدل واحد دست مییابند.
Expert System
سیستم خبره
یک سیستم خبره یک برنامه نرم افزاری هوش مصنوعی است که توانایی تصمیم گیری یک متخصص انسانی را در یک حوزه خاص تقلید می کند. از پایگاه دانشی از قوانین و اکتشافات، همراه با موتورهای استنتاج، برای ارائه مشاوره یا تصمیم گیری بر اساس داده های ورودی و پرسش های کاربر استفاده می کند.
Feature Extraction
استخراج ویژگی
استخراج ویژگی فرآیند تبدیل داده های خام به مجموعه ای از ویژگی ها است که نشان دهنده ویژگی ها یا الگوهای مرتبط است. در یادگیری ماشینی و هوش مصنوعی، هدف آن کاهش ابعاد دادهها، افزایش عملکرد پیشبینیکننده و بهبود کارایی محاسباتی با تمرکز بر آموزندهترین جنبههای مجموعه داده است.
Feedforward Neural Network
شبکه عصبی پیشخور
شبکه عصبی پیشخور نوعی شبکه عصبی مصنوعی است که در آن اتصالات بین گرهها چرخه ایجاد نمیکنند، به این معنی که دادهها در یک جهت حرکت میکنند - از گرههای ورودی از طریق لایههای پنهان به گرههای خروجی. معمولاً در کارهایی مانند طبقهبندی و رگرسیون استفاده میشود، جایی که نورونهای هر لایه دادهها را مستقل از لایههای قبلی و بعدی پردازش میکنند.
Fuzzy Logic
منطق فازی
منطق فازی نوعی منطق است که امکان استدلال تقریبی و تصمیم گیری را در شرایطی که منطق سنتی بولی ممکن است مناسب نباشد، می دهد. این به استدلال تقریبی می پردازد تا دقیق و از درجاتی از صدق به جای مقادیر دودویی درست/کاذب استفاده می کند. منطق فازی به ویژه در هوش مصنوعی برای مدیریت اطلاعات نامشخص یا نادرست مفید است و سیستم ها را قادر می سازد بر اساس مجموعه های فازی و متغیرهای زبانی تصمیم گیری کنند.
Generative Adversarial Network
شبکههای مولد تخاصمی
یک شبکه متخاصم مولد نوعی معماری شبکه عصبی است که از دو شبکه تشکیل شده است: یک مولد و یک متمایز. مولد نمونه های داده جدیدی مانند تصاویر ایجاد می کند که شبیه داده های آموزشی هستند، در حالی که تمایز دهنده تلاش می کند بین داده های واقعی و تولید شده تمایز قائل شود. از طریق آموزش خصمانه، هر دو شبکه به طور مکرر بهبود می یابند که منجر به تولید داده های مصنوعی واقعی می شود. GAN ها به طور گسترده در هوش مصنوعی برای کارهایی مانند تولید تصویر، سنتز ویدئو و تقویت داده ها استفاده می شوند.
Generative AI
هوش مصنوعی مولد
هوش مصنوعی مولد به سیستمها و الگوریتمهای هوش مصنوعی اطلاق میشود که توانایی ایجاد محتوای جدید مانند تصاویر، متن، صدا و حتی ویدیو را دارند که شبیه به دادههای ورودی است که روی آن آموزش دیده است. از تکنیکهایی مانند شبکههای متخاصم مولد (GAN)، رمزگذارهای خودکار متغیر (VAE) و سایر مدلهای یادگیری عمیق برای تولید خروجیهای جدید استفاده میکند که ویژگیهای آموختهشده از دادههای آموزشی را نشان میدهد. هوش مصنوعی مولد برنامههایی را در زمینههای خلاقانه، تولید محتوا و وظایف افزایش داده پیدا میکند.
Guardrails
نردههای محافظ
در زمینه هوش مصنوعی و یادگیری ماشین، نردههای محافظ به دستورالعملهای اخلاقی، اصول یا محدودیتهایی اشاره میکنند که برای اطمینان از اینکه سیستمهای هوش مصنوعی رفتار اخلاقی، مسئولانه و ایمن دارند. این نردههای محافظ به کاهش خطرات احتمالی مانند تعصب، نقض حریم خصوصی یا پیامدهای ناخواسته برنامههای هوش مصنوعی کمک میکنند و استقرار هوش مصنوعی قابل اعتماد و سودمند را در حوزههای مختلف ترویج میکنند.
Genetic Algorithm
الگوریتم ژنتیک
الگوریتم ژنتیک یک تکنیک جستجو و بهینه سازی است که از اصول انتخاب طبیعی و ژنتیک الهام گرفته شده است. این شامل تکامل جمعیتی از راهحلهای بالقوه در طول نسلهای متوالی با اعمال عملیاتهایی مانند انتخاب، متقاطع و جهش است. الگوریتمهای ژنتیک در هوش مصنوعی و یادگیری ماشینی برای یافتن راهحلهای بهینه برای مسائل پیچیده که در آن روشهای سنتی ممکن است ناکارآمد یا غیرعملی باشند، استفاده میشوند.
Gradient Descent
گرادیان کاهشی
Gradient Descent یک الگوریتم بهینهسازی است که در یادگیری ماشین و هوش مصنوعی برای به حداقل رساندن تابع تلفات یک مدل با تنظیم مکرر پارامترهای مدل در جهت شیبدارترین نزول گرادیان استفاده میشود. این یک تکنیک اساسی برای آموزش شبکههای عصبی و مدلهای دیگر است که هدف آن یافتن مجموعهای از پارامترهای بهینه است که بهترین تناسب را با دادههای آموزشی دارد.
Hallucination
پرتگویی
پرتگویی به پدیده ای اطلاق می شود که در آن یک مدل خروجی هایی نادرست یا غیرواقعی تولید می کند، که اغلب به دلیل تطبیق بیش از حد یا کمبود داده های آموزشی کافی است. این می تواند زمانی رخ دهد که یک مدل اطلاعاتی را پیش بینی یا تولید کند که با واقعیت یا وظیفه مورد نظر مطابقت ندارد و منجر به نتایج غیر قابل اعتماد شود.
Hyperparameter
هایپر پارامتر
در یادگیری ماشینی و هوش مصنوعی، هایپرپارامترها پارامترهایی هستند که قبل از شروع فرآیند یادگیری تنظیم می شوند. آنها خود فرآیند یادگیری را کنترل می کنند، مانند پیچیدگی مدل (تعداد لایه های پنهان در یک شبکه عصبی) یا نرخ یادگیری مورد استفاده در نزول گرادیان. فراپارامترها مستقیماً از داده ها یاد نمی گیرند بلکه بر اساس دانش قبلی، تجربه یا آزمون و خطا برای بهینه سازی عملکرد مدل تنظیم می شوند.
Image recognition
تشخیص تصویر
تشخیص تصویر یک کار بینایی کامپیوتری است که در آن یک سیستم هوش مصنوعی اشیا، صحنه ها یا الگوهای موجود در تصاویر دیجیتال را تجزیه و تحلیل و شناسایی می کند. این شامل استخراج ویژگیها از تصاویر و استفاده از الگوریتمهای یادگیری ماشین، مانند شبکههای عصبی کانولوشن (CNN) برای طبقهبندی یا تشخیص اشیاء درون تصاویر است. تشخیص تصویر کاربردهایی در زمینه های مختلف از جمله وسایل نقلیه خودران، تصویربرداری پزشکی و سیستم های امنیتی پیدا می کند.
K-nearest Neighbors (KNN)
الگوریتم کی-نزدیکترین همسایه
K-nearest Neighbors یک الگوریتم یادگیری ماشینی نظارت شده است که برای کارهای طبقهبندی و رگرسیون استفاده میشود. کلاس یا مقدار یک نقطه داده جدید را با در نظر گرفتن کلاس اکثریت یا مقدار میانگین k نزدیکترین همسایه خود در فضای ویژگی پیش بینی می کند. KNN ناپارامتریک و تنبل است، به این معنی که فرضیاتی در مورد توزیع داده ها نمی کند و مرحله آموزش را به زمان پیش بینی به تعویق می اندازد، و پیاده سازی و درک آن را ساده می کند.
Latent Dirichlet Allocation (LDA)
تخصیص دریکله پنهان
تخصیص دیریکله پنهان یک مدل احتمالی تولیدی است که در پردازش زبان طبیعی (NLP) و مدلسازی موضوعی استفاده میشود. فرض بر این است که اسناد ترکیبی از موضوعات هستند و هر موضوع توزیعی بر روی کلمات است. هدف LDA کشف موضوعات پنهان موجود در مجموعهای از اسناد با تخصیص مکرر کلمات به موضوعات و تنظیم توزیع موضوع برای به حداکثر رساندن احتمال مشاهده اسناد است. به طور گسترده برای کشف مضامین یا موضوعات در مجموعههای متنی بزرگ و درک مجموعههای اسناد استفاده میشود.
Limited memory
حافظه محدود
در زمینه یادگیری ماشین، حافظه محدود معمولاً به الگوریتمها و مدلهایی اشاره دارد که با محدود کردن مقدار دادههای تاریخی که در طول محاسبات حفظ میکنند، استفاده از منابع را بهینه میکنند. این محدودیت به مدیریت پیچیدگی محاسباتی و نیازهای ذخیره سازی کمک می کند، به ویژه در سناریوهایی که پردازش مجموعه داده های بزرگ یا جریان های داده بلادرنگ درگیر است. مثالها عبارتند از الگوریتمهای یادگیری آنلاین و انواع خاصی از تکنیکهای بهینهسازی مانند نزول گرادیان تصادفی با حافظه محدود (L-BFGS).
Linear Regression
رگرسیون خطی
رگرسیون خطی یک روش آماری است که برای یافتن روابط بین متغیرها استفاده می شود.
Logistic Regression
رگرسیون لجستیک
رگرسیون لجستیک یک روش آماری است که برای وظایف طبقهبندی باینری استفاده میشود، که در آن متغیر خروجی y احتمال وقوع یک رویداد را نشان میدهد (معمولاً 0 یا 1). این احتمال را با استفاده از یک تابع لجستیک مدل می کند، که هر ورودی با ارزش واقعی را به مقداری بین 0 و 1 نگاشت می کند.
Machine Learning (ML)
یادگیری ماشینی شاخهای از هوش مصنوعی است که بر توسعه الگوریتمها و مدلهای آماری تمرکز دارد که رایانهها را قادر میسازد تا از آنها یاد بگیرند و بر اساس دادهها و بدون برنامهنویسی صریح تصمیمگیری یا پیشبینی کنند. این شامل مدلهای آموزشی بر روی دادههای برچسبدار یا بدون برچسب برای تشخیص الگوها، انجام پیشبینی یا حل وظایف خاص است، در نتیجه عملکرد را در طول زمان از طریق تجربه بهبود میبخشد.
Manifold Learning
یادگیری منیفولد
یادگیری منیفولد مجموعهای از تکنیکهای مورد استفاده در یادگیری ماشینی و تحلیل دادهها برای کشف ساختار یا هندسه زیربنایی دادههای با ابعاد بالا است. هدف آن کاهش ابعاد داده ها در عین حفظ ویژگی های مهم، مانند روابط محلی یا فاصله بین نقاط داده است. روشهای یادگیری چندگانه به کشف روابط و الگوهای غیرخطی در دادهها کمک میکنند که ممکن است در فضاهای با ابعاد بالا پنهان شوند، و تجسم بهتر، خوشهبندی و درک مجموعههای داده پیچیده را تسهیل میکنند.
Markov Decision Process
فرآیند تصمیم گیری مارکوف
فرآیند تصمیم گیری مارکوف یک چارچوب ریاضی است که در یادگیری تقویتی و مسائل تصمیم گیری استفاده می شود. این شامل حالات، اقدامات، احتمالات انتقال، پاداش ها و یک عامل تخفیف است. عوامل در هر حالت بر اساس وضعیت فعلی و انتقال به حالت بعدی با توجه به احتمالات تعریف شده توسط مدل محیطی تصمیم می گیرند. هدف یافتن سیاستی است که پاداش تجمعی مورد انتظار را در طول زمان به حداکثر برساند.
Meta-Learning
متا لرنینگ
فرا-یادگیری، همچنین به عنوان یادگیری برای یادگیری شناخته می شود، به فرآیند یادگیری نحوه یادگیری اشاره دارد. این شامل توسعه الگوریتمها و مدلهایی است که میتوانند به طور خودکار یاد بگیرند و با وظایف یا محیطهای جدید به سرعت و کارآمد سازگار شوند. فرا یادگیری روشهایی را برای استفاده از تجربیات یادگیری گذشته برای بهبود فرآیند یادگیری بررسی میکند، که اغلب بر روی کارهایی مانند یادگیری انتقالی، یادگیری چند مرحلهای و تطبیق دامنه در یادگیری ماشینی و هوش مصنوعی تمرکز میکند.
Model
مدل
مدل به یک نمایش یا چارچوب ریاضی اشاره دارد که الگوها را از داده ها یاد می گیرد. این شامل الگوریتمها، پارامترها و مفروضاتی است که برای پیشبینی یا تصمیمگیری درباره دادههای جدید استفاده میشوند. مدلها میتوانند از رگرسیونهای خطی ساده تا شبکههای عصبی پیچیده را شامل شوند که هر کدام برای حل وظایف خاصی مانند طبقهبندی، رگرسیون، خوشهبندی یا یادگیری تقویتی طراحی شدهاند.
Natural Language Processing (NLP)
پردازش زبان طبیعی
پردازش زبان طبیعی رشتهای از هوش مصنوعی است که بر روی توانمند ساختن رایانهها برای درک، تفسیر و تولید زبان انسانی به روشی معنادار و مفید تمرکز دارد. NLP شامل وظایفی مانند پردازش متن، تجزیه و تحلیل احساسات، ترجمه ماشینی، شناسایی موجودیت نامگذاری شده و تشخیص گفتار است. از تکنیکهایی از زبانشناسی، علوم کامپیوتر و یادگیری ماشینی برای پر کردن شکاف بین زبان انسان و درک ماشین استفاده میکند و برنامههایی مانند چتباتها، ترجمه زبان و خلاصهسازی متن را قادر میسازد.
Neural Network
شبکه عصبی
شبکه عصبی یک مدل محاسباتی است که از ساختار و عملکرد مغز انسان الهام گرفته شده و از گرههای به هم پیوسته (نورونها) سازماندهی شده در لایهها تشکیل شده است. هر نورون ورودی ها را پردازش می کند، وزن اعمال می کند و نتیجه را از طریق یک تابع فعال سازی برای تولید یک خروجی عبور می دهد. شبکههای عصبی میتوانند از طریق فرآیندی به نام آموزش، از دادهها یاد بگیرند و وزنها را برای به حداقل رساندن خطاهای پیشبینی تنظیم کنند. آنها به طور گسترده ای در یادگیری ماشینی برای کارهایی مانند تشخیص تصویر، پردازش زبان طبیعی و یادگیری تقویتی استفاده می شوند، به دلیل توانایی آنها در ثبت الگوها و روابط پیچیده در داده ها.
Object Detection
تشخیص اشیا
تشخیص اشیا یک کار بینایی کامپیوتری است که شامل شناسایی و مکان یابی اشیاء مورد علاقه در یک تصویر یا فریم ویدیو می شود. نه تنها با تشخیص اینکه چه اشیایی در حال حاضر هستند، بلکه با تعیین محل قرارگیری آنها با جعبه های محدود، فراتر از طبقه بندی ساده تصاویر است. الگوریتمهای تشخیص شی معمولاً از مدلهای یادگیری عمیق مانند سریعتر R-CNN، YOLO (شما فقط یک بار نگاه میکنید) یا SSD (Single Shot MultiBox Detector) برای دستیابی به تشخیص دقیق و کارآمد چندین اشیا در سناریوهای دنیای واقعی استفاده میکنند.
One-shot Learning
یادگیری تک شات
یادگیری تک شات یک پارادایم یادگیری ماشینی است که در آن یک مدل یاد میگیرد که کلاسها یا دستههای جدید را فقط از یک مثال یا چند نمونه در هر کلاس تشخیص دهد. برخلاف رویکردهای یادگیری ماشین سنتی که به مقادیر زیادی داده برچسبگذاری شده برای هر کلاس نیاز دارند، یادگیری تک شات بر بازنماییهای یادگیری متمرکز است که به خوبی از دادههای آموزشی بسیار محدود تعمیم مییابد. این به ویژه در سناریوهایی مفید است که در آن به دست آوردن داده های برچسب گذاری شده فراوان دشوار یا غیرعملی است، مانند تشخیص پزشکی یا تشخیص رویدادهای نادر. تکنیک هایی مانند شبکه های سیامی، یادگیری متریک و فرا یادگیری اغلب در رویکردهای یادگیری تک شات استفاده می شود.
Overfitting
تطبیق بیش از حد
تطبیق بیش از حد در یادگیری ماشین زمانی اتفاق میافتد که یک مدل نه تنها الگوی اساسی دادههای آموزشی، بلکه نویز و نوسانات تصادفی را نیز یاد میگیرد. این منجر به مدلی میشود که روی دادههای آموزشی عملکرد خوبی دارد، اما نمیتواند به دادههای جدید و دیده نشده تعمیم یابد. تطبیق بیش از حد معمولاً زمانی اتفاق میافتد که یک مدل نسبت به مقدار و تنوع دادههای آموزشی بیش از حد پیچیده باشد و به جای یادگیری روابط زیربنایی منجر به حفظ کردن میشود. تکنیکهای منظمسازی، اعتبارسنجی متقاطع و افزایش میزان دادههای آموزشی، استراتژیهای رایج برای کاهش بیشبرازش هستند.
Pattern Recognition
شناسایی الگو
شناسایی الگو فرآیند شناسایی و تفسیر قانونمندی ها یا الگوهای درون داده ها است. در زمینه یادگیری ماشینی و هوش مصنوعی، شامل الگوریتمها و تکنیکهایی است که رایانهها را قادر میسازد الگوها را بر اساس دادههای ورودی شناسایی و طبقهبندی کنند. وظایف تشخیص الگو شامل تشخیص تصویر و گفتار، تشخیص دست خط، تشخیص ناهنجاری و مدلسازی پیشبینیکننده و غیره است. این وظایف در کاربردهای مختلف از بینایی کامپیوتری و پردازش زبان طبیعی تا تشخیص پزشکی و کشف تقلب ضروری هستند.
Perceptron
پرسپترون
پرسپترون ساده ترین شکل شبکه عصبی است که از یک لایه واحد نورون تشکیل شده است که هر نورون مستقیماً به ورودی ها متصل است. مجموع وزنی ورودی های خود را محاسبه می کند و یک تابع فعال سازی را برای تولید خروجی اعمال می کند. پرسپترون ها معمولاً برای کارهای طبقه بندی باینری استفاده می شوند که در آن مرز تصمیم گیری خطی بین کلاس ها را یاد می گیرند. آنها بلوک های ساختمانی معماری شبکه های عصبی پیچیده تر را تشکیل می دهند و در توسعه شبکه های عصبی مصنوعی اساسی بودند.
Predictive Analytics
تجزیه و تحلیل پیشبینی کننده
تجزیه و تحلیل پیشبینیکننده، عمل استفاده از دادهها، الگوریتمهای آماری و تکنیکهای یادگیری ماشین برای شناسایی احتمال نتایج آینده بر اساس دادههای تاریخی است. این شامل استخراج الگوها و روندها از داده ها برای پیش بینی رویدادها یا رفتارهای ناشناخته آینده است. تجزیه و تحلیل پیشبینیکننده در حوزههای مختلف، از جمله کسبوکار، امور مالی، مراقبتهای بهداشتی، بازاریابی و تولید برای بهینهسازی تصمیمگیری، پیشبینی رفتار مشتری، کاهش خطرات و بهبود کارایی عملیاتی اعمال میشود.
Prescriptive analytics
تجزیه و تحلیل تجویزی
تجزیه و تحلیل تجویزی شکل پیشرفتهای از تجزیه و تحلیل است که از دادهها، الگوریتمهای ریاضی و تکنیکهای یادگیری ماشینی برای ارائه توصیههایی در مورد اقداماتی که باید برای دستیابی به نتایج دلخواه انجام داد، استفاده میکند. نه تنها با پیش بینی نتایج آتی بلکه با پیشنهاد تصمیمات یا اقدامات بهینه برای دستیابی به اهداف یا اهداف خاص، فراتر از تحلیل توصیفی و پیش بینی کننده است. تجزیه و تحلیل تجویزی از تکنیکهای بهینهسازی و شبیهسازی برای ارزیابی سناریوهای مختلف استفاده میکند و بهترین اقدام را بر اساس محدودیتها، اولویتها و اهداف تجاری توصیه میکند. در زمینه های مختلفی مانند مراقبت های بهداشتی، مالی، تدارکات و بازاریابی برای هدایت تصمیم گیری آگاهانه و بهبود عملکرد استفاده می شود.
Precision
دقت
دقت یک متریک است که در وظایف طبقهبندی دودویی و چند طبقهای برای ارزیابی دقت پیشبینیهای مثبت ساختهشده توسط یک مدل استفاده میشود. به عنوان نسبت پیش بینی های مثبت واقعی به تعداد کل پیش بینی های مثبت انجام شده توسط مدل تعریف می شود. دقت نشان می دهد که مدل زمانی که یک نتیجه مثبت را پیش بینی می کند چقدر دقیق یا دقیق است. دقت بالا به این معنی است که یک مدل پیشبینیهای مثبت کاذب کمتری انجام میدهد، که در کارهایی که به حداقل رساندن موارد مثبت کاذب حیاتی است، مانند تشخیصهای پزشکی یا تشخیص تقلب، مطلوب است.
Principal Component Analysis (PCA)
تجزیه و تحلیل اجزای اصلی
تجزیه و تحلیل اجزای اصلی تکنیکی است که برای کاهش ابعاد در تجزیه و تحلیل داده ها و یادگیری ماشین استفاده می شود. دادههای با ابعاد بالا را به یک سیستم مختصات جدید (اجزای اصلی) تبدیل میکند که حداکثر واریانس دادهها را ثبت میکند. PCA جهتها (مولفههای اصلی) را شناسایی میکند که در امتداد آنها دادهها بیشترین تغییر را دارند و دادهها را روی این مؤلفهها پروژه میدهد و در عین حال مهمترین الگوها یا روابط را حفظ میکند. به طور گسترده ای برای تجزیه و تحلیل داده های اکتشافی، تجسم، استخراج ویژگی و کاهش نویز در مجموعه داده هایی با ابعاد بالا استفاده می شود.
Prompt
پرامپت
یک «پرامپت» میتواند به دستورالعمل، پرس و جو یا درخواستی که به یک سیستم کامپیوتری داده میشود، به ویژه در زمینه تولید یا پاسخ به محتوای مبتنی بر متن اشاره داشته باشد. به عنوان نقطه شروع یا محرکی عمل می کند که سیستم را در ایجاد یک پاسخ یا خروجی منسجم و مرتبط راهنمایی می کند. در پردازش زبان طبیعی و هوش مصنوعی، پرامپت ها برای هدایت مدلهایی مانند GPT-3 برای تولید متنی که با هدف یا نتیجه دلخواه کاربر همسو باشد، بسیار مهم است.
Q-learning
کیو-لرنینگ
Q-learning یک الگوریتم یادگیری تقویتی است که برای آموزش عوامل برای تصمیم گیری در یک محیط مبتنی بر یادگیری آزمون و خطا استفاده می شود. هدف آن یافتن یک سیاست بهینه برای به حداکثر رساندن پاداشهای انباشته در طول زمان است. Q-learning از یک جدول Q (یا تابع Q) برای ذخیره مطلوبیت مورد انتظار (Q-value) از انجام یک اقدام خاص در یک وضعیت معین استفاده می کند. عامل با انتخاب اقدامات بر اساس وضعیت فعلی محیط را بررسی می کند و مقادیر Q را بر اساس پاداش های دریافتی و حداکثر Q-value وضعیت بعدی به روز می کند. Q-learning بدون مدل است و میتواند محیطهایی با جابهجاییها و پاداشهای تصادفی را مدیریت کند، که باعث میشود به طور گسترده در سیستمهای مستقل و بازیسازی استفاده شود.
Random Forest
جنگل تصادفی
جنگل تصادفی یک تکنیک یادگیری گروهی است که برای کارهای طبقهبندی و رگرسیون در یادگیری ماشین استفاده میشود. با ساخت تعداد زیادی درخت تصمیم در طول آموزش عمل می کند و حالت (برای طبقه بندی) یا پیش بینی میانگین (برای رگرسیون) درختان منفرد را خروجی می دهد. هر درخت در جنگل تصادفی بر روی زیرمجموعهای تصادفی از دادههای آموزشی آموزش داده میشود و از یک زیرمجموعه تصادفی از ویژگیها برای تقسیم گرهها استفاده میکند، که به بهبود دقت و استحکام مدل در برابر برازش بیش از حد کمک میکند. جنگل های تصادفی همه کاره، آسان برای استفاده، و برای طیف گسترده ای از کاربردها، از جمله تشخیص پزشکی، پیش بینی مالی، و تشخیص تصویر موثر هستند.
Recurrent Neural Network (RNN)
شبکه عصبی بازگشتی
شبکه عصبی بازگشتی نوعی شبکه عصبی است که برای مدلسازی توالی و وظایف پردازشی طراحی شده است. بر خلاف شبکه های عصبی پیشخور، RNN ها دارای اتصالاتی بین گره هایی هستند که چرخه های جهت دار را تشکیل می دهند و به آن ها اجازه می دهد دینامیک زمانی را نشان دهند و دنباله های ورودی با طول های مختلف را مدیریت کنند. RNN ها یک حالت داخلی (حالت پنهان) را حفظ می کنند که اطلاعات مربوط به ورودی های قبلی را در دنباله ضبط می کند و آنها را برای کارهایی مانند پردازش زبان طبیعی (NLP)، تشخیص گفتار و پیش بینی سری های زمانی مناسب می کند. با این حال، آنها می توانند از مشکلات گرادیان ناپدید شدن یا انفجار در طول آموزش رنج ببرند، که منجر به توسعه معماری های پیشرفته تری مانند حافظه کوتاه مدت بلند مدت (LSTM) و واحد بازگشتی دردار (GRU) برای رسیدگی به این مسائل شده است.
Reinforcement Learning (RL)
یادگیری تقویتی
یادگیری تقویتی شاخه ای از یادگیری ماشینی است که با تصمیم گیری های متوالی مرتبط است. یاد می گیرد که با آزمون و خطا تصمیم گیری کند و هدف آن به حداکثر رساندن پاداش های انباشته است. در RL، یک عامل با یک محیط تعامل می کند، وضعیت محیط را مشاهده می کند، اقداماتی انجام می دهد و پاداش یا جریمه دریافت می کند. عامل سیاستی را می آموزد - نحوه ترسیم وضعیت ها به اقدامات - که پاداش بلندمدت خود را از طریق استراتژی های اکتشاف و بهره برداری به حداکثر می رساند. RL در رباتیک، بازی، سیستمهای مستقل و اخیراً در بهینهسازی فرآیندهای صنعتی و درمانهای بهداشتی کاربرد دارد.
Regularization
منظم سازی
منظمسازی تکنیکی است که در یادگیری ماشین و مدلسازی آماری برای جلوگیری از برازش بیش از حد و بهبود تعمیم مدلها بر روی دادههای دیده نشده استفاده میشود. این شامل اضافه کردن یک عبارت جریمه به تابع هدف در طول آموزش است که از پیچیده شدن بیش از حد مدل یا تطبیق نویز در داده های آموزشی جلوگیری می کند. تکنیکهای منظمسازی شامل منظمسازی L1 (کند)، منظمسازی L2 (رج) و منظمسازی خالص الاستیک است که ضرایب مدل را برای اولویتبندی مدلهای سادهتر یا مدلهایی با مقادیر پارامتر کوچکتر تنظیم میکنند. منظمسازی برای کنترل پیچیدگی مدل و بهبود عملکرد آن در دادههای جدید و نادیده ضروری است.
ResNet (Residual Network)
ResNet یک معماری شبکه عصبی عمیق است که برای رسیدگی به مشکل گرادیان ناپدید شدن در شبکههای عصبی کانولوشنال بسیار عمیق (CNN) طراحی شده است. اتصالات پرش یا میانبرهایی را معرفی می کند که به شیب ها اجازه می دهد در طول آموزش مستقیماً در شبکه جریان داشته باشند و آموزش شبکه های بسیار عمیق تر (صدها لایه) را به طور مؤثر امکان پذیر می کند. معماری ResNet معمولاً از بلوکهای باقیمانده تشکیل شده است که در آن هر بلوک دارای یک اتصال میانبر است که از یک یا چند لایه عبور میکند. این طراحی بهینهسازی آسانتر را تسهیل میکند و توانایی شبکه را برای یادگیری ویژگیهای پیچیده بهبود میبخشد و ResNet را به طور گسترده در کارهایی مانند طبقهبندی تصویر، تشخیص اشیا و تقسیمبندی تصویر مورد استفاده قرار میدهد.
Root Mean Square Error
حظای جذر میانگین مربعات
ریشه میانگین مربعات خطا یک معیار رایج برای ارزیابی دقت مدل رگرسیون است. این مقدار میانگین تفاوت بین مقادیر پیش بینی شده و مقادیر واقعی را اندازه گیری می کند.
Scikit-Learn
Scikit-Learn یک کتابخانه یادگیری ماشین منبع باز محبوب برای پایتون است. ابزارهای ساده و کارآمدی را برای پیش پردازش داده ها، ساخت مدل یادگیری ماشین، ارزیابی و استقرار فراهم می کند. Scikit-Learn شامل طیف گسترده ای از الگوریتم ها و توابع کاربردی برای کارهایی مانند طبقه بندی، رگرسیون، خوشه بندی، کاهش ابعاد و انتخاب مدل است. این به خوبی مستند شده است، استفاده از آن آسان است و به طور یکپارچه با سایر کتابخانه های پایتون مانند NumPy، Pandas و Matplotlib ادغام می شود. Scikit-Learn به طور گسترده در تحقیقات دانشگاهی و صنعت برای توسعه برنامه های کاربردی یادگیری ماشین و انجام وظایف تجزیه و تحلیل داده ها به طور کارآمد استفاده می شود.
Semi-Supervised Learning
یادگیری نیمه نظارت شده
یادگیری نیمه نظارت شده یک الگوی یادگیری ماشینی است که در آن مدل از داده های برچسب دار و بدون برچسب یاد می گیرد. در بسیاری از سناریوهای دنیای واقعی، به دست آوردن داده های برچسب دار می تواند گران یا زمان بر باشد، در حالی که داده های بدون برچسب ممکن است فراوان و آسان تر جمع آوری شوند. هدف یادگیری نیمه نظارتی استفاده از این داده های بدون برچسب همراه با مقدار کمی از داده های برچسب دار برای بهبود عملکرد مدل است.
Sentiment Analysis
تجزیه و تحلیل احساسات
تجزیه و تحلیل احساسات یک تکنیک پردازش زبان طبیعی (NLP) است که برای تعیین احساسات یا عقاید بیان شده در متن استفاده می شود. این شامل طبقه بندی خودکار متن به عنوان مثبت، منفی یا خنثی بر اساس احساسات بیان شده است. الگوریتم های تجزیه و تحلیل احساسات، زمینه معنایی متن را برای درک احساسات منتقل شده توسط کلمات، عبارات یا جملات تجزیه و تحلیل می کنند.
Structured data
داده ساختار یافته
داده های ساختاریافته به داده هایی اطلاق می شود که به شیوه ای از پیش تعریف شده سازماندهی و قالب بندی می شوند، معمولاً در یک پایگاه داده یا صفحه گسترده، جایی که هر قطعه داده در یک فیلد یا ستون ثابت ذخیره می شود.
Spectral Clustering
خوشهبندی طیفی
خوشهبندی طیفی یک تکنیک خوشهبندی است که برای تقسیمبندی نقاط داده به خوشهها بر اساس شباهت ویژگیهایشان استفاده میشود که معمولاً به صورت نمودار شباهت یا ماتریس میل نشان داده میشود.
Speech Recognition
تشخیص گفتار
تشخیص گفتار یک فناوری است که رایانه ها یا دستگاه ها را قادر می سازد تا زبان گفتاری را درک و تفسیر کنند. این شامل تبدیل کلمات یا عبارات گفتاری به متن یا دستوراتی است که یک سیستم کامپیوتری می تواند پردازش کند. سیستمهای تشخیص گفتار معمولاً از تکنیکهایی از پردازش سیگنال و پردازش زبان طبیعی (NLP) برای تجزیه و تحلیل و تشخیص دقیق زبان گفتاری استفاده میکنند.
Spiking Neural Network
شبکه عصبی Spiking نوعی شبکه عصبی مصنوعی (ANN) است که از نزدیک رفتار نورونهای بیولوژیکی و زمانبندی سنبلهها (پتانسیلهای عمل) در مغز را تقلید میکند. برخلاف شبکههای عصبی مصنوعی سنتی (ANN) که نورونها به طور مداوم شلیک میکنند، در SNNها، نورونها از طریق اسپکهای گسستهای که در زمانهای خاص رخ میدهند، ارتباط برقرار میکنند.
Supervised Learning
یادگیری نظارت شده
یادگیری نظارت شده نوعی از یادگیری ماشینی است که در آن مدل بر روی یک مجموعه داده برچسبگذاری شده آموزش داده میشود، به این معنی که دادههای ورودی و خروجی مورد نظر مربوطه در طول آموزش ارائه میشوند. هدف یادگیری نقشه برداری از ورودی ها به خروجی ها به منظور پیش بینی یا تصمیم گیری در مورد داده های جدید است.
Support Vector Machine (SVM)
ماشین بردار پشتیبان
ماشین بردار پشتیبان یک الگوریتم یادگیری نظارت شده قدرتمند است که برای کارهای طبقه بندی و رگرسیون استفاده می شود. SVM ها به ویژه در فضاهای با ابعاد بالا موثر هستند و قادر به گرفتن روابط پیچیده در داده ها از طریق استفاده از یک ابر صفحه هستند.
Token
توکن
در زمینه پردازش زبان طبیعی (NLP) و زبانشناسی محاسباتی، یک توکن به یک واحد اتمی یک زبان اشاره دارد. توکنها بلوکهای ساختمانی هستند که پس از شکستن یک متن به واحدهای کوچکتر، که میتوانند کلمات، علائم نگارشی یا سایر عناصر معنادار باشند، تولید میشوند.
TensorFlow
تنسور فلو
TensorFlow یک چارچوب یادگیری ماشین منبع باز است که توسط گوگل برای ساخت و آموزش مدل های یادگیری ماشین، به ویژه شبکه های عصبی عمیق توسعه یافته است. این یک اکوسیستم جامع از ابزارها، کتابخانه ها و منابع جامعه برای پشتیبانی از جنبه های مختلف توسعه و استقرار یادگیری ماشین ارائه می کند.
Text Mining
متن کاوی
متن کاوی، همچنین به عنوان تجزیه و تحلیل متن شناخته می شود، فرآیند استخراج اطلاعات و دانش مفید از داده های متنی بدون ساختار است. این شامل استفاده از تکنیکهایی از پردازش زبان طبیعی (NLP)، یادگیری ماشینی، و آمار برای تجزیه و تحلیل حجم زیادی از متن و کشف الگوها، گرایشها و بینشها است.
Transfer Learning
یادگیری انتقالی
یادگیری انتقالی یک تکنیک یادگیری ماشینی است که در آن یک مدل توسعه یافته برای یک کار به عنوان نقطه شروع برای یک مدل در کار دوم دوباره استفاده می شود. به جای آموزش یک مدل از ابتدا بر روی یک مجموعه داده بزرگ، انتقال یادگیری از دانش آموخته شده از وظایف یا حوزه های مرتبط برای بهبود کارایی و عملکرد یادگیری استفاده می کند.
Turing test
تست تورینگ
تست تورینگ که توسط آلن تورینگ پیشنهاد شده است، معیاری برای ارزیابی اینکه آیا یک ماشین میتواند هوش انسانمانند را از طریق مکالمه نشان دهد یا خیر است. در آزمون، یک قاضی انسانی از طریق متن با یک ماشین و انسان دیگر تعامل می کند بدون اینکه بداند کدام کدام است. اگر قاضی نتواند به طور قابل اعتمادی بین ماشین و انسان بر اساس پاسخهایشان تمایز قائل شود، در نظر گرفته میشود که ماشین تست تورینگ را گذرانده است و توانایی شبیهسازی هوش انسانمانند در مکالمه زبان طبیعی را نشان میدهد.
Transfer Learning
یادگیری انتقالی
یادگیری انتقالی یک تکنیک یادگیری ماشینی است که در آن یک مدل توسعه یافته برای یک کار به عنوان نقطه شروع برای یک مدل در کار دوم دوباره استفاده می شود. به جای آموزش یک مدل از ابتدا بر روی یک مجموعه داده بزرگ، انتقال یادگیری از دانش آموخته شده از وظایف یا حوزه های مرتبط برای بهبود کارایی و عملکرد یادگیری استفاده می کند.
Unstructured data
داده ساختار نیافته
داده های ساختار نیافته به اطلاعاتی اطلاق می شود که فاقد یک مدل داده یا سازمان از پیش تعریف شده هستند و تجزیه و تحلیل آن را با استفاده از روش های سنتی پردازش داده ها چالش برانگیزتر می کند. برخلاف دادههای ساختاریافته، که بهخوبی در پایگاههای داده با فیلدهای ثابت قرار میگیرند، دادههای بدون ساختار در قالبهایی مانند اسناد متنی، ایمیلها، پستهای رسانههای اجتماعی، ویدئوها و ضبطهای صوتی وجود دارند. استخراج بینش معنادار از دادههای بدون ساختار نیاز به تکنیکهای تخصصی از پردازش زبان طبیعی (NLP)، پردازش تصویر، و یادگیری ماشینی برای تفسیر و استخراج اطلاعات، الگوها و روندهای مفید از این منابع دادهای متنوع دارد.
Unsupervised learning
یادگیری نظارت نشده
یادگیری نظارت نشده نوعی از یادگیری ماشینی است که در آن مدل بر روی داده های بدون برچسب آموزش می بیند، به این معنی که الگوریتم الگوها و ساختارها را از داده های ورودی بدون بازخورد صریح یا نتایج از پیش تعریف شده می آموزد. برخلاف یادگیری تحت نظارت، که از داده های برچسب گذاری شده برای پیش بینی استفاده می کند، هدف یادگیری بدون نظارت، کشف الگوها یا روابط پنهان در داده ها است.
Variational Autoencoder
رمزگذار خودکار متغیر نوعی شبکه عصبی است که برای یادگیری بدون نظارت و مدل سازی تولیدی داده ها استفاده می شود. این رمزگذارهای خودکار سنتی را با ترکیب تکنیکهای احتمالی برای تولید نقاط داده جدید مشابه آنچه در مجموعه داده آموزشی است، گسترش میدهد.
Voice Recognition
تشخیص صدا
تشخیص صدا که به عنوان تشخیص گفتار نیز شناخته می شود، فناوری است که رایانه ها یا دستگاه ها را قادر می سازد تا گفتار انسان را تفسیر و درک کنند. این شامل تبدیل زبان گفتاری به متن یا دستوراتی است که می تواند توسط سیستم های کامپیوتری پردازش شود.
Zero-shot Learning
یادگیری صفر شات یک پارادایم یادگیری ماشینی است که در آن یک مدل برای تشخیص و طبقه بندی اشیا یا وظایف بدون دیدن هیچ نمونه ای از کلاس های هدف در طول آموزش آموزش می بیند. در عوض، مدل یاد میگیرد که از کلاسهای دیدهشده قبلی و روابط معنایی بین آنها تعمیم دهد.