Episodes
![איך פרילנסר ניגש לפרויקט AI](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Monday Oct 03, 2022
Monday Oct 03, 2022
תמיר ואורי, שניהם עוסקים כיועצים בתחום למידת המכונה - ועשו הרבה טעויות שניתן ללמוד מהם כשניגשים לפרויקט חדש.
בפרק זה, נדבר על שלושה פרויקטים לדוגמא - ומה הן השאלות והסוגיות שצריך להעלות לפני שמתחילים.
נדבר על מטריקות - איך מודדים פרויקט, על אתגרים טכניים.
איך בוחנים האם הדאטא מספק, והאם הארגון בכלל בשל ל
AI
והכי חשוב - תיאום ציפיות לתוצרים של הפרויקט.
![Co-Pilot - Codex ויצירה של קוד עם מודלי שפה](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Sep 14, 2022
Wednesday Sep 14, 2022
הקופיילוט של גיטהאב הכניס למודעות תחום מחקר מרתק של
Program Synthesis
העוסק ביצירה של קוד מתוך טקסט או מתוך דוגמאות הרצה.
אורי, כמשתמש נלהב של טייס המשנה יספר מהחוויות שלו על השימוש - החוזקות והחולשות של הכלי.
ונדבר על קודקס, מודל השפה ש
Open AI
אימנו על גיטהאב, וכיצד הוא עובד.
כמו כן נסקור את תחום עיבוד השפה הפורמלי (לעומת שפה טבעית) ומה ההבדלים במטריקות והאתגרים הדומים והשונים.
![שישה מאמרים שכל דאטא סיינטינסט חייב להכיר עם שקד זיכלינסקי](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Sunday Sep 04, 2022
Sunday Sep 04, 2022
בפרק זה אירחנו את שקד זיכלינסקי, ראש קבוצת ההמלצות של לייטריקס.
שקד ריכז עבורנו את ששת המאמרים החשובים שכל דאטא סיינטיסט מודרני חייב להכיר.
ששת המאמרים הם:
(1) Attention Is All You Need
(2) BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
(3) A Style-Based Generator Architecture for Generative Adversarial Networks
(4) Learning Transferable Visual Models From Natural Language Supervision
(5) Mastering the Game of Go with Deep Neural Networks and Tree Search
(6) Deep Neural Networks for YouTube Recommendations
שקד גם כתב בהרחבה במדיום פה:
https://towardsdatascience.com/6-papers-every-modern-data-scientist-must-read-1d0e708becd
![Novel Class Discovery זיו פרוינד על](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Aug 10, 2022
Wednesday Aug 10, 2022
בפרק זה אירחנו את זיו פרוינד שהכיר לנו מונח חדש לבעיה נפוצה.
מכירים את זה שאימנתם מודל שעובד מעולה כשמסווגים 10 מחלקות, אבל פתאום כשמגיעים לשטח מגלים שיש עוד 12 מחלקות שלא חשבתם עליהם ומבלבלות את המודל ?
זיו יספר על נסיונו בסיווג סיגנלים באלביט, ויספר על גישות לפתרון הבעיה.
נשמע לכם כמו קלאסטרינג ? גם לנו - נדבר על ההבדלים ועל שימוש בשיטות כמו
Contrastive
ללמידת ייצוגים מוכוונת לבעיית הקלאסיפיקציה שתבוא בהמשך.
לקריאה נוספת
[1]Hassen, Mehadi and Philip K. Chan. “Learning a Neural-network-based Representation for Open Set Recognition.” ArXiv abs/1802.04365 (2020): n. pag.
[1]Hassen, Mehadi and Philip K. Chan. “Learning a Neural-network-based Representation for Open Set Recognition.” ArXiv abs/1802.04365 (2020): n. pag.
[1]Hsu, Yen-Chang, ZhaoyangLv, and Zsolt Kira. "Learning to cluster in order to transfer across domains and tasks.” ICLR 2018
[1]Yang, Bo, et al. "Towards k-means-friendly spaces: Simultaneous deep learning and clustering." international conference on machine learning. PMLR, 2017.
[1]Geng, Chuanxing, Sheng-jun Huang, and Songcan Chen. "Recent advances in open set recognition: A survey." IEEE transactions on pattern analysis and machine intelligence 43.10 (2020): 3614-3631.
[1]Min, Erxue, et al. "A survey of clustering with deep learning: From the perspective of network architecture." IEEE Access 6 (2018): 39501-39514.
![Multi-Task Learning עם איתי מרגולין](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Jul 19, 2022
Tuesday Jul 19, 2022
בפרק זה נראיין את איתי מרגולין על אחת הטכניקות הפרקטיות בתעשייה שכל עסקן דיפ לרנינג חייב להכיר.
מולטי-טאסק זו למידה של מספר משימות במקביל, ולמרות שהמונח קיים כבר עשרות שנים, הוא זכה להכרה מחדש עם פרוץ דיפ לחיינו.
נדבר על מתי למידה של מספר משימות מועילה, מתי היא מזיקה ?
מה ההבדל מולTransfer learning ?ואיך משלבים כמה מטרות לפונקציית לוס אחת
![מערכות המלצה בטאבולה עם דנה קנר](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Jul 05, 2022
Tuesday Jul 05, 2022
כמשתמשים אנחנו נחפשים למערכות המלצה כל הזמן, בין אם זה בסופר בקניות או בגלילת סרטים בנטפליקס.
בפרק זה נדבר עם דנה, על איך טאבולה, ענקית ההמלצות העולמית ממליצה לנו על כתבות דומות כשאנחנו גולשים באינטרנט.
נדבר על המלצות מבוססות תוכן בלבד
content filtering
המלצות מבוססות אינטראקציות בלבד, בהשראת פרס נטפליקס 2009
collaborative filtering
ונדבר על מימושים כגון וריאציות על
matrix factorization
ו
factorization machines
כדי לשלב גם תכנים וגם התנהגות משתמשים להמלצה אחת.
כמו כן נדבר על איך טאבולה עושים
Transfer learning
כשיש טראפיק מועט, או כשיש תלות גדולה בין אתרים.
![זיהוי אובייקטים עם אברהם רביב](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Jun 15, 2022
Wednesday Jun 15, 2022
בפרק זה נדבר על זיהוי אובייקטים בתמונה, ונארח את אברהם רביב - דוקטורנט בתחום בבר אילן ופעיל מאוד בקהילה עם הסקירות המעולות שלו.
נדבר על בעיות בראיה ממוחשבת, מקלאסיפיקציה, דרך זיהוי אובייקטים ועד סגמנטציה - ועל הקושי בתיוג.
זיהוי אובייקטים יכול להיות ממודל או כבעיה דו שלבית, הכוללת שלב נקודות עניין ואז קלאסיפיקציה או יחדיו - ונזכיר את
YOLO
שהיה מודל חלוצי בתחום.
נדבר על המעבר מרשתות
CNN
לטרנספורמרים, ועל המודל
DETR
סקירה של אברהם רביב על דיטר:
https://github.com/AvrahamRaviv/Deep-Learning-in-Hebrew/blob/main/deepnightleaners%20reviews/DETR.pdf
![Defusion Denoising Models עם מייק ארליכסון](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Monday May 30, 2022
Monday May 30, 2022
ראיון מיוחד עם מייק ארליכסון האחד והיחיד על מודל גנרטיבי "חדש".
Diffusion Modelsהם שיטה חדש לפעפוע רעש, ואימון מודל להפוך רעש על ידי סדרה של מודלים לתמונות סופר איכותיות.
נדבר על המאמר:
Diffusion models beat gans on image synthesis
שמראה שמודלי דיפוזיה מצליחים להביס מודלים קודמים כגון
GANs.ונסקור את המטריקות לאיכות תמונה שנבדקו, כמו כן נדבר על החסרונות שלDDPMלעומתVAE & GANsץ
![MLOps עם אורן רזון](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday May 18, 2022
Wednesday May 18, 2022
בפרק זה נדבר עם אורן רזון שמוביל את
superwise
על שלושת השלבים של דיפלוימנט של מודלי למידת מכונה.
נדבר על מה יכול להשתבש בפרודקשן כשמודל מתיישן והעולם מתיישן, ואיך ניתן להיות עם יד על הדופק עםMonitoring
קישורים רלוונטים:
Building your MLOps roadmap
Build or buy? Choosing the right strategy for your model observability
Superwise Community Edition
![Machine Learning Engineering עם אסף פנחסי](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Friday Apr 29, 2022
Friday Apr 29, 2022
למידת מכונה נורא כיפית ופשוטה כשמורידים מחברת מקאגל וכל הדאטא יושב בקובץ על המחשב ליד, אבל בחיים האמיתיים המצב לא כ"כ פשוט.
בפרק זה אסף פנחסי (יועץ בתחום, בוגר פייפל ובכיר בזברה מדיקל לש') לספר לנו על החיים האמיתיים.
שאלנו את אסף את כל השאלות הקשות: מחברות או קוד ? האם
feature store
זה משהו שאנחנו צריכים, ומתי הוא לא מתאים ?
וכמובן, מה ההבדל בין
ML engineering
ל
MLops
?
![סטטיסטיקה בייסיאנית](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Apr 05, 2022
Tuesday Apr 05, 2022
סטטיסטיקאים נחצים ל2 מחנות: הסטטיסטיקאים הקלאסיים-תדירותיים, והסטטיסטיקאים הבייסיאנים.
סטטיסטיקה בייסיאנית היא גישה שונה לסטטיסטיקה, שמנסה לדון בסבירות לא רק של הדאטא הנצפה בהנתן השערה, אלא גם בסבירות של הפרמטרים של ההתפלגות.
מודלים רבים כגון
GMM, Naive Bayes ו Latent Dirrechlet allocation
מתבססים על סטטיסטיקה בייסיאנית, ולאחרונה גם רשתות נוירונים זוכות לפרשנות בייסיאנית.
בפרק נדבר על ההבדלים, ועל האומדים השונים של 2 הגישות.
![ניווט אינרציאלי עם ברק אור](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Mar 22, 2022
Tuesday Mar 22, 2022
בפרק זה אירחנו את ברק אור לספר לנו על ניווט אינרציאלי.
כשאנחנו חושבים על ניווט, אנחנו חושבים על גוגל מאפס, ווייז ושלל אפליקציות שמשתמשות ב
GPS.
אבל לג'י פי אס יש מגבלות, ויש דרכים נוספות לנווט - כגון מדדי תאוצה, מהירות ומצפן.
ברק יספר לנו על אלגוריתם קלמן פילטר ששרד את מבחן הזמן ועל הרחבות שלו עם למידת מכונה.
![על בינה מלאכותית בסייבר עם רועי טבח](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Monday Mar 07, 2022
Monday Mar 07, 2022
בפרק זה ראיינו את רועי טבח שייספר לנו על האתגרים בעולם הסייבר,
דיברנו על שימוש באנומלי דטקשן להתראה על אירועים חשודים בלוגים של מערכות.
ודיברנו על מירוץ החימוש הנצחי בין התוקפים למגינים
![Proximal Policy Optimization מה זה](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Feb 16, 2022
Wednesday Feb 16, 2022
כבר התרגלנו בעולם המשין לרנינג, ששום מודל לא שורד יותר משנה-שנתיים בתור ה
SOTA
עד שמגיעה גישה חדשה שטורפת את הקלפים.
לכן מעניין דווקא לדבר על
PPO
שנשאר הגישה הדומיננטי ב
Reinforcement learning
כבר חמש שנים, ולא נראה שהוא הולך לשום מקום.
נלמד על הבעיתיות של למידה רק עם גרדיאנט, ונדבר על מה זה "גרדיאנט טבעי"
![בנדיטים עם דניאל חן](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Jan 18, 2022
Tuesday Jan 18, 2022
בפרק זה אירחנו את דניאל חן מפייבר, לדבר על אלגוריתמי בנדיטים.
Multi armed bandit
היא גרסה מנוונת של
Reinforcement learning
אבל שימושית מאוד, עם אלגוריתמים ייחודיים לפתרון יעיל.
נדבר על שימושים בעולמות הפרסום, תימחור דינמי, ואיך מכניסים קונטקסט לבנדיטים ושומרים על שפיות.
![Variational Auto Encoders עם מייק ארליכסון](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Monday Jan 10, 2022
Monday Jan 10, 2022
פרק מהארכיון, עם מייק ארליכסון המפורסם מסקירות המאמרים.
בפרק זה נדבר על הדרך מאוטו-אנקודר אל
VAE
לצורך יצירה של דאטא סינטתי.
ונדבר על ההבדלים מול
GAN
![עצי החלטה - חוזרים לבסיס](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Dec 28, 2021
Tuesday Dec 28, 2021
בפרק זה נחזור לבסיס ונדבר על עצי החלטה, המודל הבסיסי והאינטואטיבי ביותר - שעדיין עובד יותר טוב על דאטא טבלאי.
נדבר על שיטות אימון חמדניות, ועל שימוש באנטרופיה כקירוב.
ונתאר מה ההבדל בין שיטות ה
ensemble
הנפוצות, בוסטינג לעומת באגינג.
![למידה ניגודית Contrastive Learning](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Dec 15, 2021
Wednesday Dec 15, 2021
נראה שלמידה ניגודית מקבלת המון תשומת לב לאחרונה, בעיבוד תמונה, טקסט ואפילו דאטא טבלאי.
נדבר על המאמר פורץ הדרך של הינטון
SimCLR
ונשווה אותו אל מול שיטות קלאסיות של הורדת מימד.
![פדיחות של למידה](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Monday Nov 29, 2021
Monday Nov 29, 2021
בהמשך לסיקור החדשותי של זילו, והחיזוי מחירי נדלן שהביאו להפסדים של מיליארדים - תמיר ואורי מתוודאים על פדיחות שעשו בפרויקטים.
מה קורה כשהמודל מושלם אבל תהליך יצירת הדאטא פחות ? איך פרויקט תיוג יכול להשתבש ולהתפוצץ בפנים, וכמובן - כמה חשוב לקרוא את האותיות הקטנות בדוקמנטציה.
![עיבוד קול עם אמיר עברי](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Nov 17, 2021
Wednesday Nov 17, 2021
בפרק זה אירחנו את אמיר עברי להסביר לנו על עיבוד קול, מה הם השלבים השונים בפייפליין של
Speech recognition
ועל האתגרים בתחום. בפרק נדבר על שיטות כגון
MFCC
לעיבוד אותות שמע, וכיצד אפשר להתמודד עם המימד הגבוה עםטכניקות כמו
Diffusion maps
כדי לאפשר עיבוד בזמן אמת.
![על התאוריה של דיפ לרנינג, עם גלעד יהודאי](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Oct 27, 2021
Wednesday Oct 27, 2021
על מהפכת הדיפ לרנינג לא צריך להרחיב, כולנו מכירים וחלקנו אף מימשנו.
אבל למה לעזאזל הדבר הזה עובד ? בפרק זה אירחנו את גלעד יהודאי, סטודנט לדוקטורט לתחום ושאלנו אותו את השאלות הקשות.
נלמד מה זה "אוברפיטינג שפיר" מה היא תופעת ה"ירידה הכפולה" ומה הם שלושת סוגי הטעויות בלמידה.
![עיבוד שפה בעברית, עם פרופסור רעות צרפתי](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Wednesday Oct 13, 2021
Wednesday Oct 13, 2021
בפרק זה אורי מארח את רעות צרפתי לדבר על עיבוד שפה בעברית.
מה ההבדל בכלל בין עברית לאנגלית ? למה זה יותר קשה ?
האם החיים היו יותר קלים אם היינו כותבים עם ניקוד ?
ודיברנו על ההבדלים הבלשניים של שפות שמיות (עברית וערבית) אל מול שפות הודו אירופאיות.
![Positive Unlabeled Learning שי פלצ‘י על](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Sep 28, 2021
Tuesday Sep 28, 2021
קיבלתם פעם דאטאסט עם "כל הדברים שחשוב לזהות" אבל בלי אף דוגמא שלילית ?
אני בטוח שכן, אפשרות אחת לפתרון היא למדל את הבעיה כקלאסיפיקציה ואיכשהו להמציא דוגמאות שליליות.
או, לחילופין למדל את הבעיה כ
Positive Unlabeled Learning
אבל מה זה ?
שי פלצ'י יסביר לנו ויספר על הספריה שלו
pu-learn
![Welcome back -not amlek.ai - we‘re ExplAInable](https://pbcdn1.podbean.com/imglogo/image-logo/12743198/Explainable_Cover_V3-100_8nrfri_300x300.jpg)
Tuesday Sep 28, 2021
Tuesday Sep 28, 2021
Tamir Nave and Uri Goren introduce themselves and the new podcast format.
![Image](https://pbcdn1.podbean.com/fs1/user-site-dist/assets/customize-component2.png)
מי אנחנו
תמיר נווה, מומחה עיבוד תמונה ולמידה חיזוקית עם נסיון רב בתעשיות הבטחוניות ובהדרכה.
תמיר מוביל את ai-blog ואת המיזם ai-junk שמלמד ילדים על אינטלגנציה מלאכותית עם אביזרים שאפשר למצוא בכל בית.
אורי גורן מומחה עיבוד שפה ומערכות חיפוש והמלצה - מוביל את argmaxml.
ארגמקס היא חברת יעוץ בתחום מודלי השפה, איחזור מידע, והמלצה בעזרת פתרונות AI.
אקספליינסל הוא מיתוג מחדש (יש שיגידו עונה שניה) של amlek.ai .