Онлайн поддержка
Все операторы заняты. Пожалуйста, оставьте свои контакты и ваш вопрос, мы с вами свяжемся!
ВАШЕ ИМЯ
ВАШ EMAIL
СООБЩЕНИЕ
* Пожалуйста, указывайте в сообщении номер вашего заказа (если есть)

Войти в мой кабинет
Регистрация
ГОТОВЫЕ РАБОТЫ / РЕФЕРАТ, ПРОГРАММИРОВАНИЕ

Математическое и программное обеспечение вычислительных машин, комплексов и компьютерных сетей

вторушин_н 410 руб. КУПИТЬ ЭТУ РАБОТУ
Страниц: 41 Заказ написания работы может стоить дешевле
Оригинальность: неизвестно После покупки вы можете повысить уникальность этой работы до 80-100% с помощью сервиса
Размещено: 06.12.2022
Целью реферата является теоретическое изучение процессов работы со знаниями в организациях, возможности их формальных описаний с использований онтологий и метаописаний, разработки систем сбора, хранения, поиска и использования знаний в бизнес-процессах организации. Освоение материала позволяет правильно определить подход к организации работы со знаниями и созданию информационных систем, поддерживающих использование знаний в бизнес-процессах.
Введение

Данный реферат раскрывает знания в области теории и практики применения вычислительных машин, систем и сетей; описываются принципы построения, параметры и характеристики современных компьютеров вычислительных систем и сетей.
Содержание

Введение 3 1. Архитектура и классификация вычислительных систем 4 1.1. Архитектура современных компьютеров 4 1.1.1. Организация памяти и архитектура процессора современных вычислительных машин 5 1.1.2. Страничная и сегментная организация виртуальной памяти 7 1.1.3. Командный и арифметический конвейеры, параллельное выполнение независимых команд 9 1.1.4. Машины, обеспечивающие выполнение вычислений, управляемых потоком данных 10 1.1.5. Организация ввода-вывода 12 1.1.6. Устройства сопряжения с объектами 17 1.1.7. Классификация вычислительных систем 18 1.2. Архитектура памяти, требования к ней 19 1.2.1. Иерархия памяти 21 1.2.2. Способы увеличения быстродействия памяти 22 1.2.3. Конвейеризация основной памяти (расслоение памяти) 23 1.2.4. Архитектура RAID-массивов памяти 24 1.3. Кэш-память 26 1.3.1. Полностью ассоциативная кэш-память 28 1.3.2. Кэш-память с прямым распространением 29 1.3.3. Стратегии обновления основной памяти 30 1.3.4. Стратегии замещения 32 1.4. RISC-архитектура 33 1.4.1. Современные тенденции развития RISC-идеологии 34 1.4.2. Архитектура и характеристики современных семейств процессоров 35 2. Высокопроизводительные вычислительные системы 42 2.1. Суперкомпьютеры и особенности их архитектуры 42 2.2. Кластерные суперкомпьютеры и особенности их архитектуры 43 Заключение 46 Список источников 47
Список литературы

1. Орлов С. А. Технологии разработки программного обеспечения : учебник для вузов. М.: Мир книг, 2012. 2. Дейтел Х. М. Операционные системы. Распределенные системы, сети, безопасность. М.: ООО "БИНОМ-ПРЕСС", 2011. 3. Аверченков В.И., Рытов М.Ю., Кондрашин Г.В., Рудановский М.В. Системы защиты информации в ведущих зарубежных странах: учебное пособие для вузов. М.: Изд.: ФЛИНТА, 2011 г. 4. Смирнов А.А. Обеспечение информационной безопасности в условиях виртуализации общества. Опыт Европейского Союза: монография. М.: Изд.: ЮНИТИ-ДАНА; Закон и право, 2012. 5. Крук Б.И. Телекоммуникационные системы и сети. Современные технологии [Электронный ресурс]: учебное пособие. М.: Горячая линия — Телеком, 2012. (Режим доступа: http://www.iprbookshop.ru/12047.— ЭБС «IPRbooks».) 6. Аверченков В.И. Аудит информационной безопасности: учебное пособие для вузов. Изд.: ФЛИНТА, 2011 г. 7. Иванова Г. С. Технология программирования. М.: КноРус, 2011. 8. Кауфман В. Ш. Языки программирования: концепции и принципы. М.: ДМК Пресс, 2011. 9. Мартемьянов Ю.Ф. Операционные системы. Концепции построения и обеспечения безопасности [Электронный ресурс]: учебное пособие. М.: Горячая линия — Телеком, 2011. (Режим доступа: http://www.iprbookshop.ru/12009.— ЭБС «IPRbooks».) 10. Таненбаум Э. С. Современные операционные системы. М. : Мир книг, 2011. 11. Цилькер Б.Я. Организация ЭВМ и систем: учебник для вузов / С.А. Орлов, Б.Я. Цилькер. - СПб.: Питер, 2011. - 688 с. 12. Архитектура современного компьютера http://www.jaans.ru/arhitektura-sovremennogo-kompjutera.html 13. Архитектура персонального компьютера. Назначение основных узлов. Функциональные характеристики компьютера http://www.yaklass.ru/materiali?mode=cht&chtid=458 14. Память на любой вкус http://compress.ru/article.aspx?id=12591 15. История памяти. Технологии недавнего прошлого и современные решения http://compress.ru/article.aspx?id=10296 16. RAID-массив в персональном компьютере http://compress.ru/article.aspx?id=11131 17. RAID-массивы и матрицы http://compress.ru/article.aspx?id=14791 18. Что такое кэш процессора, и как он работает http://compress.ru/article.aspx?id=23541 19. Дэвид Харрис, Сара Харрис. Цифровая схемотехника и архитектура компьютера, 2-е издание, перевод командой компаний и университетов России, Украины, США и Великобритании, Morgan Kaufman,2013 20. Таненбаум Э., Остин Т. Архитектура компьютера. 6-е изд. СПб.: Питер, 2014, ISBN 978-5-496-00337-7 21. Вахалия Ю. UNIX изнутри. — СПб.: Питер, 2003. С.844. ISBN 5-94723-013-5 22. Иртегов Д. Введение в операционные системы. СПб.: Питер, 2002. 23. Классификации архитектур вычислительных систем на основе пособия Вл. В. Воеводин, А. П. Капитонова. «Методы описания и классификации вычислительных систем». Издательство МГУ,1994. 24. Ч. Кэпс. Р. Стаффорд. VAX: Программирование на языке ассемблера и архитектура = VAX assembly language and architecture. — М.: Радио и связь, 1991. — С. 310. — 416 с. — ISBN 5-256-00706-8. 25. ^ Морс С.П., Алберт Д.Д. Архитектура микропроцессора 80286 = The 80286 architecture. — М.: Радио и связь, 1990. — С. 167. — 304 с. — ISBN 5-256-00466-2. 26. ^ Королёв Л. Н. Архитектура ЭВМ БЭСМ-6. Из книги Л. Н. Королёва «Структуры ЭВМ и их математическое обеспечение» (1978). PARALLEL.RU - Информационно-аналитический центр по параллельным вычислениям. 27. Лекция "Вычислительные системы" https://sites.google.com/site/informatika1011kl/lekcia-vycislitelnye-sistemy
Отрывок из работы

1. Архитектура и классификация вычислительных систем 1.1. Архитектура современных компьютеров Архитектура компьютера — набор типов данных, операций и характеристик каждого отдельно взятого уровня. Она связана с программными аспектами, в то время как аспекты реализации (например, технология, применяемая при реализации памяти) не являются частью архитектуры. Архитектура определяет принципы действия, информационные связи и взаимное соединение основных логических узлов компьютера: процессора, оперативного запоминающего устройства (ЗУ), внешних ЗУ и периферийных устройств. Общность архитектуры разных компьютеров обеспечивает их совместимость с точки зрения пользователя. «Компьютерная архитектура, как и другая архитектура, — это искусство определения потребностей пользователя структуры, а затем проектирования для максимально эффективного удовлетворения этих потребностей в рамках экономических и технологических ограничений» – П. Брукс. Выделяют несколько уровней компьютерной архитектуры: Уровень 0. Цифровой логический уровень, это аппаратное обеспечение машины, состоящий из вентилей логические элементы (защелки), триггеры, регистры. Уровень 1. Микроархитектурный уровень, интерпретация микропрограммы или непосредственное выполнение (арифметико-логическое устройства). Электронные схемы исполняют машинно-зависимые программы. Совокупность регистров процессора формирует локальную память. Уровень 2. Уровень архитектуры системы команд, трансляция (ассемблер). Уровень 3. Гибридный уровень: одна часть команд интерпретируется операционной системой, а другая — микропрограммой. Уровень 4. Уровень языка ассемблера, трансляция (компилятор). Четвертый уровень и выше используется для написания прикладных программ, с первого по третий — системных программ. Программы в удобном для человека виде транслируются на язык уровней 1-3. Уровень 5. Язык высокого уровня. Программы на языках высокого уровня транслируются обычно на уровни 3 и 4. 1.1.1. Организация памяти и архитектура процессора современных вычислительных машин Современные х86-совместимые процессоры для ноутбуков и настольных ПК имеют целую систему иерархии памяти, включающей кэш-память первого, второго и даже третьего уровней, которые расположены на кристалле процессора. Процессор работает с данными, хранящимися в оперативной памяти. Однако скорость работы оперативной памяти и процессора существенно различаются: если бы процессор напрямую общался с оперативной памятью (читал или записывал данные), то большую часть времени попросту простаивал бы. Именно для сокращения задержек доступа к оперативной памяти и применяется кэш­память, которая значительно более скоростная в сравнении с оперативной. Оперативная память представляет собой динамическую память с произвольным доступом (Dynamic Random Access Memory, DRAM), а кэш процессора выполняется на базе статической оперативной памяти (Static Random Access Memory, SRAM). Статическая память SRAM без проблем работает на частотах в несколько гигагерц, то есть кэш на основе такой памяти может работать на тактовой частоте процессора. Динамическая память DRAM функционирует на частотах существенно более низких. Процесс чтения и записи данных в оперативную память происходит не отдельными байтами, а пакетами, состоящими как минимум из четырех 64-разрядных ячеек (из четырех четверных слов). Это позволяет повысить эффективность работы памяти. Однако процессор загружает данные в свои регистры в виде байт, слов, двойных слов или даже четверных слов. В любом случае он не работает с пакетами данных. То есть минимальная единица информации, считываемая из оперативной памяти, всегда больше той минимальной единицы информации, с которой работает процессор. Считанный пакет данных из оперативной памяти нужно где-то временно сохранить, то есть требуется промежуточная память для временного хранения считываемых данных. Итак, кэш процессора используется для временного хранения данных, которые записываются в оперативную память или считываются из нее, и позволяет нивелировать задержки доступа к оперативной памяти. Кэш центрального процессора разделён на несколько уровней. Максимальное количество кэшей — четыре. В универсальном процессоре в настоящее время число уровней может достигать трёх. Кэш-память уровня N+1, как правило, больше по размеру и медленнее по скорости доступа и передаче данных, чем кэш-память уровня N. Cache L1. «Кэш-память первого уровня»: промежуточная сверхоперативная память, как правило находящаяся на самом кристалле процессора, в которой размещаются наиболее часто используемые данные. Работает на частоте процессора. Время доступа к этой памяти существенно меньше, чем к данным в основной оперативной памяти. Этим достигается ускорение работы процессора. Из-за ограничений в размерах кристалла процессора и высокого быстродействия этой памяти она имеет небольшую емкость — всего несколько десятков килобайт. Cache L2. «Кэш-память второго уровня»: промежуточная сверхоперативная память, имеющая быстродействие ниже памяти первого уровня, но выше основной оперативной памяти. Её размер обычно составляет от нескольких сотен килобайт до нескольких мегабайт. Она может выполняться как на том же кристалле, что и процессор, так и в виде отдельных микросхем. В RISC-процессорах зачастую используется L3-кэш и кэш более высоких порядков. Cache L3. «Кэш-память третьего уровня»: промежуточная сверхоперативная память, имеющая быстродействие ниже памяти второго уровня, но выше основной оперативной памяти. Ее размер обычно составляет от одного до нескольких мегабайт. Используется, главным образом, в серверных процессорах. Встречается кэш-память и более высоких уровней (при этом быстродействие памяти каждого последующего уровня меньше каждого предыдущего уровня). D-Cache. Сверхоперативная память, используемая для хранения инструкций процессора. 1.1.2. Страничная и сегментная организация виртуальной памяти Виртуальная память — метод управления памятью компьютера, позволяющий выполнять программы, требующие больше оперативной памяти, чем имеется в компьютере, путём автоматического перемещения частей программы между основной памятью и вторичным хранилищем (например, жёстким диском). Для выполняющейся программы данный метод полностью прозрачен и не требует дополнительных усилий со стороны программиста, однако реализация этого метода требует как аппаратной поддержки, так и поддержки со стороны операционной системы. Страничная организация виртуальной памяти В большинстве современных операционных систем виртуальная память организуется с помощью страничной адресации. Оперативная память делится на страницы: области памяти фиксированной длины (например, 4096 байт), которые являются минимальной единицей выделяемой памяти (то есть даже запрос на 1 байт от приложения приведёт к выделению ему страницы памяти). Исполняемый процессором пользовательский поток обращается к памяти с помощью адреса виртуальной памяти, который делится на номер страницы и смещение внутри страницы. Процессор преобразует номер виртуальной страницы в адрес соответствующей ей физической страницы при помощи буфера ассоциативной трансляции (TLB). Если ему не удалось это сделать, то требуется дозаполнение буфера путём обращения к таблице страниц, что может сделать либо сам процессор, либо операционная система (в зависимости от архитектуры). Если страница была выгружена из оперативной памяти, то операционная система подкачивает страницу с жёсткого диска. При запросе на выделение памяти операционная система может «сбросить» на жёсткий диск страницы, к которым давно не было обращений. Критические данные (например, код запущенных и работающих программ, код и память ядра системы) обычно находятся в оперативной памяти (исключения существуют, однако они не касаются тех частей, которые отвечают за обработку аппаратных прерываний, работу с таблицей страниц и использование файла подкачки). Сегментная организация виртуальной памяти Механизм организации виртуальной памяти, при котором виртуальное пространство делится на части произвольного размера — сегменты. Этот механизм позволяет, к примеру, разбить данные процесса на логические блоки. Для каждого сегмента, как и для страницы, могут быть назначены права доступа к нему пользователя и его процессов. При загрузке процесса часть сегментов помещается в оперативную память (при этом для каждого из этих сегментов операционная система подыскивает подходящий участок свободной памяти), а часть сегментов размещается в дисковой памяти. Сегменты одной программы могут занимать в оперативной памяти несмежные участки. Во время загрузки система создает таблицу сегментов процесса (аналогичную таблице страниц), в которой для каждого сегмента указывается начальный физический адрес сегмента в оперативной памяти, размер сегмента, правила доступа, признак модификации, признак обращения к данному сегменту за последний интервал времени и некоторая другая информация. Если виртуальные адресные пространства нескольких процессов включают один и тот же сегмент, то в таблицах сегментов этих процессов делаются ссылки на один и тот же участок оперативной памяти, в который данный сегмент загружается в единственном экземпляре. Система с сегментной организацией функционирует аналогично системе со страничной организацией: время от времени происходят прерывания, связанные с отсутствием нужных сегментов в памяти, при необходимости освобождения памяти некоторые сегменты выгружаются, при каждом обращении к оперативной памяти выполняется преобразование виртуального адреса в физический. Кроме того, при обращении к памяти проверяется, разрешен ли доступ требуемого типа к данному сегменту. Недостатком данного метода распределения памяти является фрагментация на уровне сегментов и более медленное по сравнению со страничной организацией преобразование адреса. 1.1.3. Командный и арифметический конвейеры, параллельное выполнение независимых команд Конвейер — способ организации вычислений, используемый в современных процессорах и контроллерах с целью повышения их производительности (увеличения числа инструкций, выполняемых в единицу времени — эксплуатация параллелизма на уровне инструкций), технология, используемая при разработке компьютеров и других цифровых электронных устройств. Конвейер помогает не во всех случаях. Существует несколько возможных минусов. Конвейер инструкций можно назвать «полностью конвейерным», если он может принимать новую инструкцию каждый машинный цикл. Иначе в конвейер должны быть вынужденно вставлены задержки, которые выравнивают конвейер, при этом ухудшая его производительность. Преимущества: • Время цикла процессора уменьшается, таким образом увеличивая скорость обработки инструкций в большинстве случаев. • Некоторые комбинационные логические элементы, такие, как сумматоры или умножители, могут быть ускорены путём увеличения количества логических элементов. Использование конвейера может предотвратить ненужное наращивание количества элементов. Недостатки: • Бесконвейерный процессор исполняет только одну инструкцию за раз. Это предотвращает задержки веток инструкций (фактически каждая ветка задерживается), и проблемы, связанные с последовательными инструкциями, которые исполняются параллельно. Следовательно, схема такого процессора проще, и он дешевле для изготовления. • Задержка инструкций в бесконвейерном процессоре слегка ниже, чем в конвейерном эквиваленте. Это происходит из-за того, что в конвейерный процессор должны быть добавлены дополнительные триггеры. • У бесконвейерного процессора скорость обработки инструкций стабильна. Производительность конвейерного процессора предсказать намного сложнее, и она может значительно различаться в разных программах. 1.1.4. Машины, обеспечивающие выполнение вычислений, управляемых потоком данных В традиционных вычислительных машинах команды выполняются последовательно, после того как выполнена предшествующая команда. Последовательность выполнения команд определяется значением счетчика команд. Кроме этого широко распространенного способа управления известны еще два: управление потоками данных и управление по запросу. При управлении потоком данных команда выполняется, когда становятся доступны ее операнды, а при управлении по запросу команда выполняется, когда другим командам требуется результат ее выполнения. Рассмотрим организацию машин, управляемых потоком данных, подробнее. Впервые идея вычислений, управляемых потоком данных, была предложена в 1960-х годах Карпом и Миллером. Основоположником архитектуры, языка программирования и практической реализации машин, управляемых потоком данных, является Деннис. Его работы, выполненные в1970-егоды, положили начало многим исследованиям в данном направлении. Программа машины, управляемой потоком данных, представляет собой направленный граф. Этот граф состоит из вершин, отображающих операции, и ребер или дуг, по которым перемещаются данные. Узловые операции выполняются, когда по дугам в узел поступила вся необходимая информация. Обычно требуется один или два операнда, а для условных операций — один логический управляющий сигнал. По выполнению операции узел формирует один или два результата. Результаты передаются по дугам от узла к узлу до тех пор, пока не будет получен окончательный результат. Заметим, что одновременно могут быть инициированы несколько узлов, таким образом, автоматически реализуется параллелизм вычислений. 1.1.5. Организация ввода-вывода Устройства сопряжения с объектами В вычислительной системе, состоящей из множества подсистем, необходим механизм для их взаимодействия. Эти подсистемы должны быстро и эффективно обмениваться данными. Например, процессор, с одной стороны, должен быть связан с памятью, с другой стороны, необходима связь процессора с устройствами ввода/вывода. Одним из простейших механизмов, позволяющих организовать взаимодействие различных подсистем, является единственная центральная шина, к которой подсоединяются все подсистемы. Доступ к такой шине разделяется между всеми подсистемами. Подобная организация имеет два основных преимущества: низкая стоимость и универсальность. Поскольку такая шина является единственным местом подсоединения для разных устройств, новые устройства могут быть легко добавлены, и одни и те же периферийные устройства можно даже применять в разных вычислительных системах, использующих однотипную шину. Стоимость такой организации получается достаточно низкой, поскольку для реализации множества путей передачи информации используется единственный набор линий шины, разделяемый множеством устройств. Главным недостатком организации с единственной шиной является то, что шина создает узкое горло, ограничивая, возможно, максимальную пропускную способность ввода/вывода. Если весь поток ввода/вывода должен проходить через центральную шину, такое ограничение пропускной способности весьма реально. В коммерческих системах, где ввод/вывод осуществляется очень часто, а также в суперкомпьютерах, где необходимые скорости ввода/вывода очень высоки из-за высокой производительности процессора, одним из главных вопросов разработки является создание системы нескольких шин, способной удовлетворить все запросы. Одна из причин больших трудностей, возникающих при разработке шин, заключается в том, что максимальная скорость шины главным образом лимитируется физическими факторами: длиной шины и количеством подсоединяемых устройств (и, следовательно, нагрузкой на шину). Эти физические ограничения не позволяют произвольно ускорять шины. Требования быстродействия (малой задержки) системы ввода/вывода и высокой пропускной способности являются противоречивыми. В современных крупных системах используется целый комплекс взаимосвязанных шин, каждая из которых обеспечивает упрощение взаимодействия различных подсистем, высокую пропускную способность, избыточность (для увеличения отказоустойчивости) и эффективность. Традиционно шины делятся на шины, обеспечивающие организацию связи процессора с памятью, и шины ввода/вывода. Шины ввода/вывода могут иметь большую протяженность, поддерживать подсоединение многих типов устройств, и обычно следуют одному из шинных стандартов. Шины процессор-память, с другой стороны, сравнительно короткие, обычно высокоскоростные и соответствуют организации системы памяти для обеспечения максимальной пропускной способности канала память-процессор. На этапе разработки системы, для шины процессор-память заранее известны все типы и параметры устройств, которые должны соединяться между собой, в то время как разработчик шины ввода/вывода должен иметь дело с устройствами, различающимися по задержке и пропускной способности. Как уже было отмечено, с целью снижения стоимости некоторые компьютеры имеют единственную шину для памяти и устройств ввода/вывода. Такая шина часто называется системной. Персональные компьютеры, как правило, строятся на основе одной системной шины в стандартах ISA, EISA или MCA. Необходимость сохранения баланса производительности по мере роста быстродействия микропроцессоров привела к двухуровневой организации шин в персональных компьютерах на основе локальной шины. Локальной шиной называется шина, электрически выходящая непосредственно на контакты микропроцессора. Она обычно объединяет процессор, память, схемы буферизации для системной шины и ее контроллер, а также некоторые вспомогательные схемы. Типичными примерами локальных шин являются VL-Bus и PCI. Шинная транзакция включает в себя две части: посылку адреса и прием (или посылку) данных. Шинные транзакции обычно определяются характером взаимодействия с памятью: транзакция типа "Чтение" передает данные из памяти (либо в ЦП, либо в устройство ввода/вывода), транзакция типа "Запись" записывает данные в память. В транзакции типа "Чтение" по шине сначала посылается в память адрес вместе с соответствующими сигналами управления, индицирующими чтение. Память отвечает, возвращая на шину данные с соответствующими сигналами управления. Транзакция типа "Запись" требует, чтобы ЦП или устройство в/в послало в память адрес и данные и не ожидает возврата данных. Обычно ЦП вынужден простаивать во время интервала между посылкой адреса и получением данных при выполнении чтения, но часто он не ожидает завершения операции при записи данных в память. Разработка шины связана с реализацией ряда дополнительных возможностей. Решение о выборе той или иной возможности зависит от целевых параметров стоимости и производительности. Первые три возможности являются очевидными: раздельные линии адреса и данных, более широкие (имеющие большую разрядность) шины данных и режим групповых пересылок (пересылки нескольких слов) дают увеличение производительности за счет увеличения стоимости. Главное устройство шины - это устройство, которое может инициировать транзакции чтения или записи. ЦП, например, всегда является главным устройством шины. Шина имеет несколько главных устройств, если имеется несколько ЦП или когда устройства ввода/вывода могут инициировать транзакции на шине. Если имеется несколько таких устройств, то требуется схема арбитража, чтобы решить, кто следующий захватит шину. Арбитраж часто основан либо на схеме с фиксированным приоритетом, либо на более "справедливой" схеме, которая случайным образом выбирает, какое главное устройство захватит шину. В настоящее время используются два типа шин, отличающиеся способом коммутации: шины с коммутацией цепей (circuit-switched bus) и шины с коммутацией пакетов (packet-switched bus), получившие свои названия по аналогии со способами коммутации в сетях передачи данных. Шина с коммутацией пакетов при наличии нескольких главных устройств шины обеспечивает значительно большую пропускную способность по сравнению с шиной с коммутацией цепей за счет разделения транзакции на две логические части: запроса шины и ответа. Такая методика получила название "расщепления" транзакций (split transaction). (В некоторых системах такая возможность называется шиной соединения/разъединения (connect/disconnect) или конвейерной шиной (pipelined bus). Транзакция чтения разбивается на транзакцию запроса чтения, которая содержит адрес, и транзакцию ответа памяти, которая содержит данные. Каждая транзакция теперь должна быть помечена (тегирована) соответствующим образом, чтобы ЦП и память могли сообщить что есть что. Шина с коммутацией цепей не делает расщепления транзакций, любая транзакция на ней есть неделимая операция. Главное устройство запрашивает шину, после арбитража помещает на нее адрес и блокирует шину до окончания обслуживания запроса. Большая часть этого времени обслуживания при этом тратится не на выполнение операций на шине (например, на задержку выборки из памяти). Таким образом, в шинах с коммутацией цепей это время просто теряется. Расщепленные транзакции делают шину доступной для других главных устройств пока память читает слово по запрошенному адресу. Это, правда, также означает, что ЦП должен бороться за шину для посылки данных, а память должна бороться за шину, чтобы вернуть данные. Таким образом, шина с расщеплением транзакций имеет более высокую пропускную способность, но обычно она имеет и большую задержку, чем шина, которая захватывается на все время выполнения транзакции. Транзакция называется расщепленной, поскольку произвольное количество других пакетов или транзакций могут использовать шину между запросом и ответом. Устройства сопряжения с объектом (УСО), которые также называют модулями ввода-вывода, выполняют функции адаптера датчиков и исполнительных устройств. Они имеют специальные аппаратные каскады сопряжения с оконечными устройствами и поддерживают алгоритмы управления ими. УСО могут выполнять функции первичной обработки данных с датчиков: фильтрацию, усреднение и накопление. УСО являются подчиненными по отношению к логическим контроллерам и самостоятельно не реализуют каких-либо алгоритмов контроля объекта управления. По способу взаимодействия с логическим контроллером УСО делятся на: • Локальные УСО, конструктивно совмещенные с логическим контроллером; • Удаленные или сетевые УСО, взаимодействующие с логическим контроллером по сетевому каналу, конструктивно независимые от логических контроллеров. УСО работает с реальным объектом в условиях помех, высоких напряжений и больших токов (например, управление двигателем переменного тока). Как правило, это устройство гальванически развязано с объектом управления. В качестве УСО могут выступать дискретные (битовые) входы и выходы, аналоговые входы и выходы и т.п. Без гальванической развязки управляющий вычислительный комплекс будет либо постоянно сбоить из-за помех, либо сгорит при появлении повышенного напряжения на входе УСО. УСО должно не только сопрягать различные уровни сигналов, например 24 Вольт необходимые для включения реле и 5 Вольт (TTL уровень) на выходе битового порта ввода-вывода микроконтроллера, но и не пропускать высокие напряжения во внутренние цепи контроллера. 1.1.5. Классификация вычислительных систем Классификация по типу применяемого процессора: CISC (англ. complex instruction set computing) – архитектура с полным набором команд. Такие процессоры выполняют все команды простые и сложные за большое количество тактов, команд в таких процессорах много, и бывает, что компиляторы верхнего уровня очень редко используют все команды. RISC (англ. reduced instruction set computing) – архитектура с сокращенным набором команд. Такие процессоры работают быстрее, чем CISC архитектура, за счет упрощения архитектуры и сокращения количества команд, но для выполнения сложной команды, она составляется из набора простых, что увеличивает время выполнения команды (за большее количество тактов). MISC (англ. minimal instruction set computing) - архитектура с минимальным набором команд. Такие процессоры имеют минимальное количество команд, все команды простые и требуют небольшого количества тактов на выполнение, но если выполняется сложные вычисления, например с числами с плавающей запятой, то такие команды выполняются за большое количество тактов, превышающее CISC и RISC архитектуры. VLIW (англ. very long instruction word - «очень длинная машинная команда») - архитектура с длинной машинной командой, в которой указывается параллельность выполнения вычислений. Такие процессоры получили широкое применение в цифровой обработке сигналов. Классификация способу организации параллельной обработки (автор Майкл Флинн): • ОКОД (SISD, Single Instruction stream over a Single Data stream) – Вычислительная система с одиночным потоком команд и одиночным потоком данных. • ОКМД (SIMD, Single Instruction, Multiple Data) – Вычислительная система с одиночным потоком команд и множественным потоком данных. • МКОД (MISD, Multiple Instruction Single Data) – Вычислительная система с множественным потоком команд и одиночным потоком данных. • МКМД (MIMD, Multiple Instruction Multiple Data) – Вычислительная система с множественным потоком команд и множественным потоком данных. Типичными представителями SIMD являются векторные архитектуры. К классу MISD ряд исследователей относит конвейерные ЭВМ, однако это не нашло окончательного признания, поэтому можно считать, что реальных систем — представителей данного класса – не существует. Класс MIMD включает в себя многопроц
Условия покупки ?
Не смогли найти подходящую работу?
Вы можете заказать учебную работу от 100 рублей у наших авторов.
Оформите заказ и авторы начнут откликаться уже через 5 мин!
Похожие работы
Реферат, Программирование, 12 страниц
120 руб.
Реферат, Программирование, 21 страница
210 руб.
Служба поддержки сервиса
+7 (499) 346-70-XX
Принимаем к оплате
Способы оплаты
© «Препод24»

Все права защищены

Разработка движка сайта

/slider/1.jpg /slider/2.jpg /slider/3.jpg /slider/4.jpg /slider/5.jpg