ВСТАВЬ НАЧАЛО ВОПРОСА В СТРОКУ «ПОИСК». ПОПРОБУЙ ВПИСАТЬ ВОПРОС ВРУЧНУЮ, ЕСЛИ НЕ НАХОДИТ ОТВЕТ.
ВОПРОС | ОТВЕТ |
---|---|
Является ли алгоритм CART для построения бинарного дерева решений жадным? | да |
Чем отличаются обучающая и тестовая выборка в задаче обучения с учителем? | Наличием в обучающей выборке меток классов |
Какой(ие) из перечисленных моделей и методов НЕ требуют обучения перед использованием? | KNN |
Какая задача решается для возможности визуализации многомерных данных? | Сокращения размерности |
Способы обучения и в компьютерных системах бывают | Индуктивные, Дедуктивные, Комбинированные |
Какие вектора называются опорными? | Вектора, расстояние от которых до разделяющей гиперплоскости минимально |
Задача классификации заключается в ___ объектов разных классов некоторой функцией. | Разделении |
Что является сферой приложения машинного обучения: | Распознавание речи, Компьютерная лингвистика и обработка естественных языков, Медицинская диагностика, Биоинформатика |
В чем заключается основное предположение обучения с учителем? | Примеры из тестовой выборки распределены примерно также, как и примеры из тренировочной |
Какие метрики применимы при несбалансированных классах? | Precision |
Задача понижения размерности относится к | Обучению без учителя |
Какая формула соответствует метрики accuracy (TP – истинно положительные, TN – истинно отрицательные, FP – ложно положительные, FN – ложно отрицательные)? | (TP + TN) /(TP + TN + FP + FN) |
Что оценивает метрика AUC-ROC? | Площадь под кривой в координатах True Positive Rate и False Positive Rate |
Матрица, использующаяся для оценки качества классификации называется: Матрица | Ошибок |
Существует ли аналог AUC-ROC, где в качестве координат используются другие, известные вам метрики? | Да, с метриками precision и recall |
В чем основная идея метода t-SNE? | Конвертировать близость каждой пары точек в исходном пространстве большой размерности в вероятность того, что одна точка данных связана с другой точкой как с ее соседом |
Как называется сеть, каждый нейрон на слое которой связан с каждым нейроном следующего слоя? | Полносвязная |
Что из перечисленного НЕ является нейронной сетью? | Цепь Маркова |
Как называется функция, измеряющая ошибку одного предсказания? | Функция потерь |
Когда два множества являются линейно разделимыми? | Когда существует гиперплоскость, разделяющая эти два множества |
Каким образом можно использовать для линейно неразделимых множеств? | Использовать kernel trick, Разрешить допускать ошибки при разделении и минимизировать их |
Что из перечисленного является видом классификации? | Бинарная, Многоклассовая, Многоклассовая классификация с пересекающимися классами |
Какова будет апостериорная вероятность того, что студент готовился к экзамену, если он его сдал, вероятность сдать экзамен – 40%, вероятность сдать при условии подготовки – 60%, а всего к экзаменам готовятся 30% студентов. | 0.45 |
Какова будет апостериорная вероятность того, что студент готовился к экзамену, если он его сдал, вероятность сдать экзамен – P(B), вероятность сдать при условии подготовки – P(B|A), а всего к экзаменам готовятся P(A) студентов. | P(A|B) = ( P(B|A) * P(A) ) / P(B) |
В чем заключается «наивность» наивного Байесовского классификатора? | В предположении, что признаки независимые |
От каких метрик зависит метрика F-мера? | precision и recall |
Сохраняет ли метод t-SNE локальную структуру расположения точек в исходном пространстве при отображении в двумерное или трехмерное пространства? | Да, сохраняет |
Что означают истинно положительные значения в матрице ошибок для двухклассовой классификации (1/0)? | Число предсказаний, в которых истинная метка на объекте совпадает с предсказанной и равна 1 |
Что означают ложно отрицательные значения в матрице ошибок для двухклассовой классификации (1/0)? | Число предсказаний, в которых истинная метка на объекте не совпадает с предсказанной, истинная метка равна 1, предсказанная равна 0 |
Что означают истинно отрицательные значения в матрице ошибок для двухклассовой классификации (1/0)? | Число предсказаний, в которых истинная метка на объекте совпадает с предсказанной и равна 0 |
Что означают ложно положительные значения в матрице ошибок для двухклассовой классификации (1/0)? | Число предсказаний, в которых истинная метка на объекте не совпадает с предсказанной, истинная метка равна 0, предсказанная равна 1 |
Что хуже переобучение или недообучение? | Оба являются нежелательными |
К какому классу задач машинного обучения принадлежит кластеризация? | Обучение без учителя |
Между чем вычисляется расстояние Кульбака-Лейблера? | Между двумя распределениями вероятностей |
Как будет зависеть выход полносвязной нейронной сети из n слоев от ее входов, если нейроны в этой сети имеют сигмоидальную функцию активации? | Нелинейно |
Упорядоченная совокупность всех весовых коэффициентов всех нейронов может быть представлена, как вектор W. Как называется пространство, состоящее из множества всех таких векторов? | Фазовое |
Могут ли факты в базе знаний меняться со временем? | Да, могут |
Какие факторы следует учитывать при проектировании моделей представления знаний? | Простота понимания, Однородность представления знаний |
Является ли метод SHAP согласованным? | Да |
Для интерпретации чего нужен метод «прототипы и критики»? | Для интерпретации данных |
В чем основная проблема глобальных суррогатных моделей? | Скорее всего: В сложности интерпретации |
Что такое «конфликтные примеры»? | Похожие примеры, которые модель классифицирует по-разному |
В какую научилась играть программа AlphaGo, основанная на глубоких нейронных сетях? | Го |
Для чего используются MFCC-признаки в задаче распознавания речи? | Для представления звукового сигнала |
Каково число нейросетей, использующихся в GAN? | 2 |
Какие последствия может повлечь «одоление» генератора дискриминатором в GAN? | Итоговый результат генерации ухудшится |
При тренировке GAN лучше, чтобы каждая сеть тренировалась | Против статичного противника |
Какой тип обучения используется для обучения глубоких нейронных сетей играть в игры? | Обучение с подкреплением |
Какой тип сетей лучше всего подходит для распознавания картинок? | Сверточные |
Какое распределение используется для генерации вариационным автокодером? | Нормальное распределение |
Согласно теореме Колмагорова для любой задачи может быть построена нейронная сеть? | Да, может |
Можно ли разделить признаки на полезные и бесполезные? Если да, то как называется процесс выбора полезных признаков на этапе анализа предметной области? | feature engineering |
Кластер можно охарактеризовать как | Группу объектов, имеющих общие свойства |
Может ли одна из сетей в GAN «одолеть» другую? | Да, может |
Какие типы признаков существуют? | Бинарными, Вещественными, Категориальными, Множественнозначными |
Что из перечисленного является целью машинного обучения? | Обучение машины решению задачи или класса задач по примерам решения. |
Для чего используется kernel trick в SVM? | Для осуществления нелинейной классификации |
Какую разделяющую гиперплоскость называют оптимальной? | Которая максимально удалена от обоих классов. |
Задача оценки плотности относится к | Обучению без учителя |
При каком сценарии метрика accuracy (доля правильных ответов) бесполезна? | Когда классы несбалансированные |
Задача ранжирования относится к | Обучению с учителем |
Имеет ли какие особенности в структуре сети шумоподавляющий автокодер? | Нет |
Для чего используется кодирующая часть автокодера? | Для уменьшения объема хранимых данных / Для сокращения размерности |
Какой размер будет у карты признаков размера 32х32 пикселя после проведения субдескритизации (pooling) размера 2х2: | 16x16 |
Матрица весов нейронной сети называется | синаптическая |
Что такое «влиятельные объекты»? | Объекты из обучающей выборки, от которых сильно зависят параметры настраиваемой модели |
Метод SHAP относится к локальным или глобальным моделям? | Локальным |
Является ли метод SHAP согласованным? | Да |
Как расшифровывается аббревиатура LIME? | Local Interpretable Model-Agnostic Explanations |
В системах, основанных на знаниях, системах функции хранения знаний и функции решения задач | Разделены между собой |
Что внутри себя содержит база знаний? | Факты и правила |
Какая существует рекомендация по выбору модели для решения задачи и для оценки важности признаков? | Эти модели должны принадлежать разным парадигмам |
Как расшифровывается аббревиатура LIME? | Local Interpretable Model-agnostic Explanations |
Для чего необходима возможность интерпретации результата работы модели? | |
Для увеличения доверия к модели | |
Для интерпретации чего нужен метод «прототипы и критики»? | Для интерпретации данных |
Что такое «влиятельные объекты»? | к локальным |
Что такое «влиятельные объекты»? | Объекты из обучающей выборки, от которых сильно зависят параметры настраиваемой модели |
Что означает свойство согласованности при оценке важности признаков? | если модель изменить так, что она более существенно начинает зависеть от какого-то признака, то его важность не убывает |
Могут ли генеративные алгоритмы использоваться в качестве классификаторов? | Да |
При тренировке GAN лучше, чтобы каждая сеть тренировалась | Против статичного противника |
К какому типу обучения относится роботика? | |
Обучение с подкреплением | |
Каково число нейросетей, использующихся в GAN? | 2 |
Что делает дискриминатор в GAN? | Оценивает подлинность данных |
Какие последствия может повлечь «одоление» генератора дискриминатором в GAN? | Итоговый результат генерации ухудшится |
Что делает генератор в GAN? | Создает образы заданного класса |
Какое распределение используется для генерации вариационным автокодером? | |
Нормальное распределение | |
Для чего используются MFCC-признаки в задаче распознавания речи? | |
Для представления звукового сигнала | |
В методе анализа частичной зависимости признаки считаются зависимыми? | Нет, считаются независимыми |
Все ли методы оценки важности признаков обладают свойством согласованности? | Не все обладают |
Может ли база знаний продуцировать новые факты? | Да, может |
Метод LIME относится к локальным или глобальным моделям? | К локальным |
В чем заключается состязательный элемент генеративно-состязательной нейросети | В попытке генерирующей сети обмануть дискриминирующую сеть |
Как будет зависеть выход полносвязной нейронной сети из n слоев от ее входов, если нейроны в этой сети не имеют функции активации? | Линейно |
Является ли латентный слой вариационного автокодера интерпретируемым? | нет |
Какой тип сетей лучше всего подходит для распознавания картинок? | Сверточные |
Может ли нейронная сеть распознавать изображения лучше человека? | Да, может |
Какие методы для распознавания речи использовались до глубоких нейронных сетей? | скрытые марковские модели |
Можно ли осознанно влиять на результат генерации вариационного автокодера, управляя латентным слоем? | Нельзя |
При распознавании изображения число весов в полносвязной нейронной сети будет … | больше чем в сверточной нейронной сети |
Для чего проводится «стрижка» решающих деревьев | Для уменьшения сложности дерева; Для увеличения обобщающей способности |
Какой размер будет у карты признаков размера 32х32 пикселя после проведения субдескритизации (pooling) размера 2х2 | 16х16 |
Матрица весов нейронной сети называется | Синаптическая матрица весов |
Из каких частей состоит автокодер | Энкодер и декодер |
В чем заключается особенность примеров в методе интерпретации «конфликтные примеры» | Примеры мало отличаются, но относятся к разным классам |
Что означает Model-agnostic в названии метода LIME | Не зависит от модели |
Какова общая идея локальной интерпретации | Локальная аппроксимация основной неинтерпретируемой модели интерпретируемой |
Какие требования можно наложить на интерпретацию | Сопоставление Краткость и конкретика Контентность Соответствие ожиданиям и правдивость |
Что является сферой приложения машинного обучения | Распознование речи, Компьютерная лингвистика и обработка естественных языков, Медицинская диагностика, Биоинформатика |
Каким образом можно использовать для линейно неразделимых множеств? | Использовать kernel trick, Разрешить допускать ошибки при разделении и минимизировать их |
Какова будет апостериорная вероятность того, что студент готовился к экзамену, если он его сдал, вероятность сдать экзамен – 40%, вероятность сдать при условии подготовки – 60%, а всего к экзаменам готовятся 30% студентов. | 45% |
Можно ли разделить признаки на полезные и бесполезные? Если да, то как называется процесс выбора полезных признаков на этапе анализа предметной области? | Да, feature engineering |
Какой(ие) из перечисленных моделей и методов НЕ требуют обучения перед использованием? | KNN |
Что из перечисленного является видом классификации | Бинарная, Многоклассовая, Многоклассовая классификация с пересекающимися классами |
Что обозначает отсутствие «учителя» при обучении без учителя? | Отсутствие метод классов у объектов в обучающей выборке |
Матрица, использующаяся для оценки качества классификации называется: Матрица | Ошибок |
Какая формула соответствует метрики precision (TP – истинно положительные, TN – истинно отрицательные, FP – ложно положительные, FN – ложно отрицательные)? | TP/(TP+FP) |
Что означают ложно отрицательные значения в матрице ошибок для двухклассовой классификации (1/0)? | Число предсказаний, в которых истинные метка на объекте не совпадает с предсказанной, истинная метка равна 1, предсказанная равна 0 |
В чем заключается основное предположение обучения с учителем? | Примеры из тестовой выборки распределены примерно также, как и примеры из тренировочной |
Сохраняется ли расстояние между точками в методе t-SNE после проецирования? | Нет, расстояние может быть пропорционально исходному |
Что означают истинно положительные значения в матрице ошибок для двухклассовой классификации (1/0)? | Число предсказаний, в которых истинные метка на объекте совпадает с предсказанной и равна 1 |
Что оценивает метрика AUC-ROC? | Площадь под кривой в координатах True Positive Rate и False Positive Rate |
Как называются слои сети, находящиеся между входным и выходным слоями? | Скрытые, Промежуточные |
Для чего используются ядра свертки? | Для выявления признаков |
Простейший искусственный нейрон – это | Сумматор |
Чему учится сиамские нейронные сети? | Кластеризовать данные в новом пространстве признаков |
Чем отличается обычная нейронная сеть от глубокой нейронной сети? | Числом скрытых слоев |
Существует ли ограничение на число слоев нейронной сети для применения метода обратного распространения ошибки? | Нет |
Согласно теореме Колмагорова для любой задачи может быть построена нейронная сеть? | Да, может |
Какой критерий используется для определения наилучшего разбиения в алгоритме CART? | Идекс Gini |
Почему линейная модель является интерпретируемой? | Потому что ее коэффициенты обладают семантикой |
Что из перечисленного относится к классу задач обучения с учителем? | классификация и восстановление регрессии |
Что означает модификация «взвешенное голосование» в KNN? | суммарно ближе остальных |
Может ли быть использован метод опорных векторов для классификации линейно неразделимых множеств. | Да |
Что из перечисленного НЕ является разделом машинного обучения: | Обучение учителя |
К какому классу задач машинного обучения принадлежит классификация? | Обучение с учителем |
Какой тип нейронных сетей в большей мере подхо | Сверточные |
Использование какого компонента компьютера для обучения нейронных сетей вызвало огромный рост интереса к нейронным сетям начале 2010 годов? | Видеокарты |
Дискриминатор в GAN работает только с заведомо сфальсифицированными значениями? | Нет |
Может ли нейронная сеть распознавать изображения лучше че | Да |
Сохраняется ли расстояние между точками в методе t-SNE после проецирования? | Нет, расстояние может быть пропорционально исходному |
Что обозначает отсутствие «учителя» при обучении без учителя? | Отсутствие меток классов у объектов в обучающей выборке |
Чем отличается задача классификации от задачи восстановления регрессии? | При классификации предсказывается значение из некоторого конечного множества, а восстановление регрессии предсказывает значение из некоторого непрерывного интервала |
Какой размер будет у изображения размера 32х32 пикселя после обработки ядром 3х3 со сдвигом на 1 пиксель: | 30х30 |
Простейший искусственный нейрон – это | Сумматор |
Все ли методы оценки важности признаков обладают свойством согласованности? | Не все обладают |
На чем основываются методы поиска «влиятельных объектов»? | На полном переборе На поиске с использованием функции влияния |
Могут ли факты в базе знаний меняться со временем? | Да, могут |
Что является выходом декодера вариационного автокодера? | Вектор, сгенерированный с полученными параметрами нормального распределения |
Какая формула соответствует метрики recall (TP – истинно положительные, TN – истинно отрицательные, FP – ложно положительные, FN – ложно отрицательные)? | TP/(TP + FN) |
Какие функции могут быть представлены простейшим нейроном без функции активации? | Линейные |
Что в базе знаний является долгосрочной информацией? | Правила |
Верно ли утверждение, что GAN быстро тренируются? | Нет |
Методы кластеризации, из перечисленных, включают: | k-средних (k-means), k-медоид (k-medoids), CURE и BIRCH. |
На чем основывается метод SHAP? | На локальной интерпретации модели; На использовании чисел Шепли из теории игр |
Обязательно ли иметь данные для обучения суррогатных моделей? | Нет |
К какому типу обучения относится роботика? | Обучение с подкреплением |
Является ли метрика AUC-ROC устойчивой к несбалансированным классам? | Является |
Что из перечисленного является методом кластеризации? | k-средних; k-медойд; CURE; BIRCH |
Может ли модель интерпретироваться не целиком, а отдельными блоками? | Да, может |
Что из перечисленного является генеративной моделью? | Вариационный автокодер; GAN |
В методе опорных векторов используется разделение пространства гиперплоскостью, какой главный критерий выбора оптимальной гиперплоскости, при условии, что разделяемые классы линейно разделимы? | Максимизация ширины разделяющей полосы |
Переобучение – это … | Нежелательное явление, связанное со слишком высокой предсказательной способностью на обучающей выборке, но недостаточной на тестовой выборке. |
Что из перечисленного НЕ является методом сокращения размерности | LOO |
Для чего используется расстояние Кульбака-Лейблера в методе t-SNE? | Для измерения ошибки |
t-SNE относится к ____ методам сокращения размерности. | Локальным |
Какие метрики применимы при несбалансированных классах? | F-мера,Accuracy,Precision,Recall |
Какие параметры являются настраиваемыми в сверточных сетях? | Размер ядра свертки, Количество ядер для каждого из слоев |
Из каких частей состоит автокодер? | Энкодер и декодер |
Что означает Model-agnostic в названии метода LIME? | Не зависит от модели |
Для чего необходима возможность интерпретации результата работы модели? | Для увеличения доверия к модели |
В чем заключается особенность примеров в методе интерпретации «конфликтные примеры»? | Примеры мало отличаются, но относятся к разным классам |
Начиная с какого времени сверточные нейронные сети используются для обработки изображений? | С 1980-х |
Достаточно ли декодера вариационного автокодера для генерации? | Да, декодера достаточно |
В чем основная проблема глобальных суррогатных моделей? | В сложности моделирования простой моделью сложной модели |
Матрица, использующаяся для оценки качества классификации называется: Матрица ____ | Матрица ошибок |
Что из перечисленного НЕ является функцией активации: _____ | Hinge loss |
Какие параметры являются настраиваемыми в сверточных сетях? | точно: Число слоев Размер ядра свертки Количество ядер для каждого из слоев |
Что из перечисленного используется для интерпретации неинтерпретируемых моделей? | PDP LIME SHAP |
Что является входными данными для генератора в GAN? | Случайный вектор признаков |
Какие метрики применимы при несбалансированных классах? | F-мера, Precision, Recall (правильный) |
Какая эвристика используется для выбора числа соседей k в методе k ближайших соседей? | Корень из n, где n - число примеров в обучающей выборке |
Метод k ближайших соседей может решать задачу(и): | Классификации; Кластеризации |
Какие части автокодера необходимы для генерации? | Автокодер не является генеративной моделью |
В чем отличие разреженного автокодера от обычного? | Число нейронов в скрытом слое больше, чем у обычного автокодера |
Каково значение метрики AUC-ROC, если классификатор не допускает ошибок? | 1 |
У вас есть выборка из части аргументов и значений булевой функции. Ваша задача – обучить однослойный перцептрон, и восстановить отсутствующие оставшиеся значения функции по ее аргументам. Начальные параметры: скорость обучения – 0.2, w0 = 0.6, w1 = 0.4, w2 = 0.6, w3 = 0.3 Тестовая выборка: 0 0 1 | 0 |
У вас есть выборка из части аргументов и значений булевой функции. Ваша задача – обучить однослойный перцептрон, и восстановить отсутствующие оставшиеся значения функции по ее аргументам. Начальные параметры: скорость обучения – 0.2, w0 = 0.6, w1 = 0.3, w2 = 0.2, w3 = 0.2 Тестовая выборка: 0 0 0 | 0 |
Какие последствия может повлечь «одоление» дискриминатора генератором в GAN? | Итоговый результат генерации ухудшится |
В каких областях глубокие нейронные сети успешно используются? | Распознавание речи, Роботика, Распознавание изображений |
Хочешь создать новую страницу для другого курса и заполнять ее с одногруппниками? – Пиши нам