СГА ответы Комбат бесплатно
Главная   Главная   Ответы   Ответы Комбат   Материалы   Скачать   Поиск   Поиск   Форум   Форум   Чат   Чат

   
Навигация

· Главная
· Новости

Общение

· Форум для студента
· Чат для студента
· Связь с нами

К прочтению

· Правила сервиса
· FAQ / ЧаВО
· Как правильно искать
· Как скачивать материалы
· Ответы к ЛС Интегратор
· Как помочь сайту
· Для вебмастеров


Инструменты

· Ответы Комбат
· Скачать материалы
· Поиск по сайту
· Поиск кода предмета



   


Детали файла
Имя файла:4323.04.01;МТ.01;1
Размер:107 Kb
Дата публикации:2015-03-09 04:24:54
Описание:
Структура вычислительных систем и комплексов - Модульный тест

Список вопросов теста (скачайте файл для отображения ответов):
Верны ли утверждения?
А) MPI_ALLTOALL() выполняет сбор данных от всех процессов группы и рассылку результата сборки всем процессам группы
В) MPI_ALLGATHER() выполняет раздачу и одновременно сбор данных от всех процессов группы во все процессы группы
Верны ли утверждения?
А) OpenMP-программа должна без всяких изменений работать на однопроцессорной платформе в качестве последовательной программы
В) В Open MP отсутствуют директивы определения параллельной секции
Верны ли утверждения?
А) PVM поддерживает четыре предопределенных функции, которые пользователь может передать через func: PvmMax, PvmMin, PvmSum, PvmProduct
В) Редуцирующая операция над входными данными выполняется поэлементно
Верны ли утверждения?
А) Алгоритм называется численно устойчивым, если ошибки округления превосходят ошибки в исходных данных
В) Крупнозернистый алгоритм называют крупноблочным алгоритмом
Верны ли утверждения?
А) Библиотека PVM содержит вызываемые пользователем подпрограммы для обмена сообщениями, порождения процессов, координирования задач и модификации виртуальной машины
В) Привязка языков C и C++ к пользовательскому интерфейсу PVM реализована в виде C-функций
Верны ли утверждения?
А) Ветвь формируется включением в нее всех итераций, которые информационно связаны с выделенной итерацией
В) В методе гиперплоскостей в каждую ветвь включается вся история вычислений результирующей итерации
Верны ли утверждения?
А) Все задачи PVM идентифицируются посредством целочисленного идентификатора задачи
В) PVM не содержит подпрограмм
Верны ли утверждения?
А) Вычислительная работа должна распределяться между процессорами мелкими порциями
В) Для автоматического распараллеливания на векторно-конвейерных вычислительных системах и векторно-параллельных вычислительных систем достаточно проанализировать на предмет возможности параллельного выполнения только внутренние циклы программы
Верны ли утверждения?
А) Графическая библиотека MPE дает возможность просто осуществить анимацию процессов передачи сообщений и их интенсивность в реальном времени
В) Профилировочная версия каждой процедуры MPI вызывает функцию PMPI_Wtime (которая возвращает текущее время) перед и после каждого вызова соответствующей MPI-процедуры
Верны ли утверждения?
А) Два выражения E и Ep называются эквивалентными, если выражение E преобразуется в Eр и, наоборот, путем использования конечного числа раз законов ассоциативности, коммутативности и дистрибутивности
В) Sp(n) = T1(n) / T > p(n) - ускорение параллельного алгоритма
Верны ли утверждения?
А) Директивы SECTIONS, ENDSECTIONS являются итерационными конструкциями
В) По умолчанию, перед директивой ENDSECTIONS происходит неявная синхронизация нитей
Верны ли утверждения?
А) Если запрашиваемое сообщение не прибыло, то функция pvm_probe() возвращает bufid, равный 0
В) Если сообщение с меткой msgtag поступило от задачи с идентификатором tid, то функция pvm_nrecv() помещает это сообщение в новый активный буфер (который она создает) и возвращает идентификатор данного буфера
Верны ли утверждения?
А) Если речь идет о распараллеливании для векторно-конвейерной вычислительной системы или для векторно-параллельной вычислительной системы, то говорят о распараллеливающем компиляторе
В) Если речь идет о распараллеливание циклов для многопроцессорной вычислительной системы, то такой компилятор называется векторизующим компилятором
Верны ли утверждения?
А) Затраты на коммуникации определяются пропускной способностью коммуникационной сети
В) Современные коммуникационные средства параллельных вычислительных систем, а также коммуникационные библиотеки не допускают использование встречных обменов
Верны ли утверждения?
А) Интерфейс программиста MPI проще, чем такой же интерфейс PVM
В) PVM имеет средства динамического порождения ветвей
Верны ли утверждения?
А) Количество нитей, на которые производится разбиение, принимается равным количеству процессоров в системе
В) Оптимизация должна производиться с учетом потерь времени на синхронизацию нитей, если они обмениваются между собой данными
Верны ли утверждения?
А) Коммуникатор не реализует обмены данными между процессами
В) Процессы в группе взаимодействуют посредством коммуникатора группы
Верны ли утверждения?
А) Коммуникационная библиотека MPI - общепризнанный стандарт в параллельном программировании с использованием механизма передачи сообщений
В) Реализацией стандарта MPI-2 является библиотека MPI-2
Верны ли утверждения?
А) Коммуникационная модель PVM предполагает, что приложение состоит из нескольких задач
В) Вычислительная модель PVM поддерживает коммуникации типа "точка-точка", а также широковещательную передачу данных
Верны ли утверждения?
А) Метод пирамид может быть использован для распараллеливания циклов как для векторно-конвейерных и вектороно-параллельных систем, так и для многопроцессорных систем
В) Метод параллелепипедов распараллеливания циклов ориентирован на многопроцессорные вычислительные системы, в которых синхронизация и обмен данными требуют больших накладных расходов (слабосвязанные МВС)
Верны ли утверждения?
А) Моделирование параллельной программы - выполнение программы на рабочей станции в режиме эмуляции параллельного выполнения
В) При разработке параллельных программ основной целью является уменьшение быстродействия
Верны ли утверждения?
А) Наличие распределенных данных порождает проблему обеспечения эффективного доступа к удаленным данным
В) Крупные фрагменты программы не могут включать в себя вызовы процедур и функций
Верны ли утверждения?
А) Основное время выполнения последовательных программ не связано с реализацией циклов
В) В проблеме автоматического распараллеливания последовательных программ распараллеливанию циклов уделяется первостепенное внимание
Верны ли утверждения?
А) Основными средствами программирования для многопроцессорных вычислительных систем являются стандартные библиотеки программ
В) OpenMP реализует параллельные вычисления с помощью многопоточности, в которой «главный» (master) поток создает набор подчиненных (slave) потоков и задача распределяется между ними
Верны ли утверждения?
А) Отладка параллельной программы требует наличия средств анализа правильности потока управления и потоков данных, а также средств анализа правильности обмена информацией между процессами
В) Модификация состояния программы заключается в изменении состояния указанного пользователем процесса и/или его данных
Верны ли утверждения?
А) Пакет PGI включает в себя набор оптимизирующих и распараллеливающих компиляторов и средств, которые облегчают процесс разработки и поддержки вычислительных приложений на рабочих станциях, серверах и кластерах на базе процессоров Intel
В) При статическом распараллеливании последовательных программ программа анализируется в процессе исполнения, на основе этого анализа принимается решение о назначении различных операторов различным устройствам для параллельной обработки
Верны ли утверждения?
А) Параллелизмом данных обладают задачи, которые включают в себя неоднократное выполнение одного и того же алгоритма с различными исходными данными
В) Распараллеливание на основе параллелизма данных называется декомпозицией по данным
Верны ли утверждения?
А) Параметр OMP_NUM_THREADS определяет способ распределения итераций в цикле, если в директиве DO использована спецификация SCHEDULE
В) Параметр OMP_SCHEDULE определяет число нитей для исполнения параллельных областей приложения
Верны ли утверждения?
А) Параметр OMP_SET_NESTED разрешает или запрещает динамическое изменение числа нитей
В) Параметр OMP_NESTED разрешает или запрещает вложенный параллелизм
Верны ли утверждения?
А) При использовании алгоритмической декомпозиции следует стремиться к разбиению задачи на мелкие и часто взаимодействующие ветви
В) Отличие алгоритмического параллелизма от функционального состоит в том, что второй предполагает объединение только функционально близких операторов алгоритма, в то время как первый функциональную близость операторов не учитывает
Верны ли утверждения?
А) Прикладные программы могут "видеть" аппаратную среду как группу виртуальных вычислительных элементов без атрибутов
В) В коммуникационной модели PVM принято, что любая задача может передавать сообщение любой другой задаче
Верны ли утверждения?
А) Процедура MPI_GROUP_SIZE(group, size) присваивает переменной size значение, равное числу процессов в группе с именем group
В) Процедура MPI_GROUP_RANK(group, rank) присваивает переменной rank значение, равное номеру процесса в группе с именем group, который выполнил этот вызов
Верны ли утверждения?
А) Процедура OMP_IN_PARALLEL() возвращает значение TRUE, если вызов процедуры произведен из параллельной области программы, и FALSE – в противном случае
В) Процедура OMP_GET_NESTED (скалярное логическое выражение)
устанавливает состояние флага, разрешающего динамически изменять число нитей
Верны ли утверждения?
А) Процедура OMP_SET_NESTED(скалярное логическое выражение) запрашивает состояние флага, разрешающего динамически изменять число нитей
В) Процедура OMP_GET_DYNAMIC() устанавливает состояние флага, разрешающего вложенный параллелизм
Верны ли утверждения?
А) Процесс приведения к системе с треугольной матрицей называется обратным ходом, а нахождения неизвестных – прямым
В) Метод Гаусса заключается в последовательном исключении неизвестных
Верны ли утверждения?
А) Процесс – исполнение программы на одном процессоре
В) Группа процессов – совокупность процессов, каждый из которых имеет внутри группы уникальное имя
Верны ли утверждения?
А) Процессы MPI-программы взаимодействуют друг с другом посредством передачи сообщений путем вызова коммуникационных функций MPI-библиотеки
В) Стандарт MPI специфицирует модель выполнения процесса
Верны ли утверждения?
А) Разбиение программы на нити многовариантно
В) Время выполнения узла может быть найдено с помощью профилирования программы
Верны ли утверждения?
А) Различные итерации не могут дублироваться в различных ветвях
В) Для балансировки загрузки процессоров используемой МВС ветви могут быть "склеены" так, что суммарная вычислительная сложность итоговых ветвей была примерно одинаковой
Верны ли утверждения?
А) Распараллеливание АВ осуществляется в рамках модели MIMD с неограниченным параллелизмом
В) Задача распараллеливания выражений - составление по ЯПФ параллельной программы
Верны ли утверждения?
А) Распараллеливание циклов производится компиляторами
В) Основная работа, которую обычно производит ЭВМ, обработка циклов и других повторяющихся участков программ
Верны ли утверждения?
А) Распределение вычислений и данных по процессорам вычислительной системы должно быть произведено таким образом, чтобы обеспечить сбалансированность загрузки процессоров
В) Несбалансированность загрузки процессоров может привести к тому, что параллельная программа будет выполняться гораздо быстрее исходной последовательной программы
Верны ли утверждения?
А) Средства трассировки не могут работать в режиме on-line
В) Современный технологический цикл отладки параллельной программы не включает в отладку программы на рабочей станции как последовательной программы
Верны ли утверждения?
А) Стандарт MPI стандартизует реализацию
В) MPI-программа представляет собой набор независимых процессов, каждый из которых выполняет свою собственную программу, написанную на каком-либо языке высокого уровня
Верны ли утверждения?
А) Стандарт MPI требует, чтобы MPI-программы могли выполняться на гетерогенных многопроцессорных системах, в которых различные процессоры имеют различные форматы данных одного и того же типа
В) MPI обеспечивает механизмы задания начального размещения процессов по процессорам
Верны ли утверждения?
А) Стандартом OpenMP занимается организация OpenMP ARB
В) OpenMP расширяет последовательный язык программирования для мультипроцессорных систем набором директив компилятора и библиотечных функций
Верны ли утверждения?
А) Топология группы определяет физические связи между процессорами, на которых выполняются эти процессы
В) Коммуникаторы группы позволяют ограничить область видимости сообщений рамками некоторой группы процессов
Верны ли утверждения?
А) Трассировка программ не используется при отладке параллельных программ
В) Для трассировки в программу вставляются операторы вывода на экран монитора сообщений, содержащих описания событий
Верны ли утверждения?
А) Ускорение параллельного алгоритма является его наиболее информативной характеристикой, которая показывает во сколько раз применение параллельного алгоритма уменьшает время решения задачи по сравнению с последовательным алгоритмом
В) Средняя степень параллелизма характеризует только сам параллельный алгоритм
Верны ли утверждения?
А) Функция int bufid = pvm_initsend(int encoding) очищает буфер передачи и пересоздает его для упаковки нового сообщения
В) Функция int info = pvm_pkbyte( char*cp, int nitem, int stride) обеспечивает упаковку в буфер данные типа char
Верны ли утверждения?
А) Функция int bufid = pvm_recv(int tid, int msgtag) упаковывает и посылает массив данных указанного типа задаче с идентификатором tid
В) Функция int info = pvm_psend(int tid, int msgtag, void *vp, int cnt, int type)реализует блокирующей прием
Верны ли утверждения?
А) Функция int info = pvm_bufinfo(int bufid, int *bytes, int *msgtag, int *tid) реализует приема данных с тайм-аутом
В) Функция int bufid = pvm_trecv(int tid, int msgtag, struct timeval *tmout) возвращает msgtag, TID источника и длину в байтах сообщения, идентифицированного с помощью bufid
Верны ли утверждения?
А) Функция int info = pvm_exit(void) int возвращает TID текущего процесса
В) Функция tid = pvm_mytid(void) сообщает программе-демону о том, что процесс "покинул" среду PVM
Верны ли утверждения?
А) Функция int info = pvm_mcast(int *tids, int ntask, int msgtag) помечает сообщение целочисленным идентификатором msgtag и передает его процессу с идентификатором tid
В) Функция int info = pvm_send(int tid, int msgtag) помечает сообщение целочисленным идентификатором msgtag и широковещательно передает это сообщение всем задачам, указанным в целочисленном массиве tids
Верны ли утверждения?
А) Целью моделирования является проверка корректности средств параллелизма в параллельной программе
В) Отладка последовательной программы является процессом существенно более трудоемким, чем отладка параллельной программы
Верны ли утверждения?
А) Эффективность мультипроцессорной программы не зависит от эффективности использования ею кэш-памяти
В) При разбиении на -м ярусе для каждого узла производится локально оптимальный выбор нити, в которую он должен быть включен
Верны ли утверждения?
А) Эффективность работы коммуникатора группы можно повысить, если явно указать информационные связи между процессами (топологию группы)
В) Базовой группой является группа MPI_COMM_WORLD, которая создается при инициализации MPI-библиотеки
Qp(n) = Sp(n) / p - эффективность параллельного алгоритма, где n -
_____________- алгоритмы, которые могут быть решены на PRAM с числом процессоров () за полиномиальное время
_____________- ациклический процесс (дерево), который может быть реализован ациклической схемой программы
_____________- время генерации начальных данных (часто на одном процессоре) и рассылки результатов по всем процессорам
_____________- высота минимальной ЯПФ
_____________- журнал событий, произошедших во время выполнения программы
_____________- количество ярусов ЯПФ
_____________- нахождение параллельного алгоритма решения задачи и реализация этого алгоритма на параллельной вычислительной системе
_____________- общедоступная библиотека, позволяющая управлять процессами с помощью механизма передачи сообщений
_____________- открытый стандарт для распараллеливания программ на языках Си, Си++ и Фортран
_____________- отношение общего числа операций алгоритма к высоте ЯПФ алгоритма
_____________- параллелизм групп операций, объединенных по функциональному признаку
_____________- параллелизм, который выявляется путем выделения в данном алгоритме тех фрагментов, которые могут выполняться параллельно
_____________- последовательность событий при выполнении программы с указанием того, сколько времени требует каждая стадия вычислений и каждая коммуникационная операция
_____________- синтез параллельных алгоритмов (распараллеливание) на основе алгоритмического параллелизма
_____________- ширина минимальной ЯПФ
_____________- это библиотека функций, обеспечивающая взаимодействие параллельных процессов с помощью механизма передачи сообщений
_____________- ЯПФ данного алгоритма, имеющая минимальную высоту
______________ - сообщение о выходе из задачи
______________ - сообщение об удалении машины (или сбое)
В процедуре для задания произвольной топологии группы MPI_GRAPH_CREATE (comm_old, nnodes, index, edges, reorder, comm_graph) comm_old -
В процедуре для задания произвольной топологии группы MPI_GRAPH_CREATE (comm_old, nnodes, index, edges, reorder, comm_graph) edges -
В процедуре для задания произвольной топологии группы MPI_GRAPH_CREATE (comm_old, nnodes, index, edges, reorder, comm_graph) index -
В процедуре для задания произвольной топологии группы MPI_GRAPH_CREATE (comm_old, nnodes, index, edges, reorder, comm_graph) nnodes -
Возвращает TID программы-демона, выполняющейся на той вычислительной машине, что и задача с указанным TID, функция
Возвращает информацию о виртуальной машине, включая количество вычислительных машин в ней – nhost, количество различных форматов данных – narch и прочую информацию, функция
Возвращает информацию о задачах PVM, выполняющихся на виртуальной машине, функция
Возвращает количество членов в указанной группе функция
Возвращает число доступных процессоров процедура
Вызывает освобождение семафора, захваченного вызывающей нитью процедура
Выполняет попытку захвата семафора процедура
Выполняет создание и инициализацию семафора (замкА) с указанным именем процедура
Добавляет к виртуальной машине или удаляет из нее hosts узлов функция
Запрещает различным нитям одновременное обновление общей переменной, используемой в левой части следующего за данной директивой оператора присваивания директива
На этапе генерации машинного кода
На этапе генерации параллельной программы
На этапе оценки качества распараллеливания
На этапе распараллеливания циклов
На этапе синтаксического анализа
Определяет блок внутри параллельного цикла, операторы которого должны выполняться в том порядке, в котором итерации следуют в последовательном цикле директива
Определяет блок, который будет выполняться только главной нитью директива
Определяет критическую секцию (критическую область) – блок, операторы которого не должны выполняться одновременно двумя и более нитями директива
Определяет точку синхронизации директива
Определяет точку, в которой должно быть обеспечено согласованное между нитями состояние тех переменных, которые перечислены в списке директива
Основная цель распараллеливания АВ -
Пакет PGI работает в операционных системах
Синхронизацию можно запретить с помощью спецификации
Создает группу с именем group и включает в нее вызывающую задачу функция
Спецификация определяет вид переменных, которые ранее не определены в программе с помощью спецификаций
Способ распределения итераций по нитям определяет спецификация
Уничтожает семафор с указанным именем процедура
Для скачивания этого файла Вы должны ввести код указаный на картинке справа в поле под этой картинкой --->


ВНИМАНИЕ:
Нажимая на кнопку "Скачать бесплатно" Вы подтверждаете свое полное и безоговорочное согласие с "Правилами сервиса"


.