Отличие гарвардской архитектуры от фон неймановской - IT Новости из мира ПК
Remkomplekty.ru

IT Новости из мира ПК
520 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Отличие гарвардской архитектуры от фон неймановской

Фон-неймановская и гарвардская архитектуры

Архитектура микропроцессора. Основные понятия

Под архитектурой МП понимают принцип его внутренней организации: общую структуру, логическую структуру отдельных устройств, совокупность команд и принципы взаимодействия аппаратной части и программы обработки информации.

Иначе: архитектура – математическая модель МП, образованная программно- доступными элементами МП. Архитектура МП отражает возможности прикладного использования МП и содержит описание программной модели МП. Под программной моделью микропроцессора понимается совокупность программно-доступных регистров, объединенных в систему укрупненными связями и дополнительными элементами, обеспечивающими функциональную законченность модели.

Полностью понятие архитектура МП включает:

— структурную схему МП,

— программную модель МП,

— описание организации памяти,

— описание организации процедур ввода/вывода.

Различают два основных типа архитектуры МП – фон Неймановскую (принстонскую) и гарвардскую.

Фон Неймановская (принстонская) архитектура (предложена Джо фон Нейманом в 1945 г.) предполагает, что программа и данные находятся в общей памяти, доступ к которой производится по одной шине данных и команд. Основным достижением группы инженеров, работавших с Джоном фон Нейманом, было осознание того факта, что программа может храниться в памяти вместе с данными. Основным преимуществом такого подхода является его гибкость, так как для изменения программы достаточно просто загрузить новый код в соответствующую область памяти. По существу, фон-неймановская архитектура, показанная на рис., состоит из центрального процессора (ЦПУ), памяти и общей шины (магистрали), по которой в обоих направлениях пересылаются данные. ЦПУ также должен взаимодействовать и с окружающим миром. При этом данные к/от соответствующих интерфейсных портов передаются по одной общей шине данных.

Огромным преимуществом фон-неймановской архитектуры является ее простота, поэтому данная концепция легла в основу большинства компьютеров общего назначения. Однако использование общей шины означает, что в любой момент времени может выполняться только одна операция. Соответственно, пересылка данных между ЦПУ и памятью данных не может осуществляться одновременно с выборкой команды . Эта особенность называется фон-неймановским узким местом.

Гарвардская архитектура (реализована в 1944 г. в ЭВМ Гарвардского университета) соответствует структуре с разделенными устройствами памяти команд и данных и отдельными шинами команд и данных.

В первое послевоенное десятилетие в Гарвардском университете было создано несколько компьютеров семейства «Марк», в которых память программ была полностью отделена от памяти данных (программа считывалась с бумажной перфоленты). Такая концепция была более эффективной, чем фон-неймановская (принстонская) архитектура, поскольку код программы мог считываться из памяти программ одновременно с обменом между ЦПУ и памятью данных или с операциями ввода/вывода. Однако такие машины были намного сложнее и дороже в изготовлении. А с учетом уровня технического развития 40 — 50-х годов, высоких экономических затрат, они не получили широкого распространения. Однако с развитием больших интегральных схем и технологии гарвардская архитектура снова оказалась в центре внимания.

Различия между Гарвардской и Принстонской архитектурами;

Основные различия архитектур CISC и RISC

Архитектуры процессоров

В настоящее время существует множество RISС (Reduced Instruct Set Computers — компьютеры с сокращенной системой команд) процессоров, так как сложилось мнение, что RISC быстрее, чем CISC (Complex Instructions Set Computes – компьютеры со сложной системой команд) процессоры. Такое мнение не со­всем верно. Имеется много процессоров называемых RISC, но на самом деле относящихся к CISC. Более того, в некоторых приложениях CISC-процессоры выполняют программный код быстрее, чем это делают RISC-процессоры, или решают такие задачи, которые RISC-процессоры не могут выполнить.

Каково истинное различие между RISC и CISC? CISC-процессоры выполняют большой набор команд с развитыми возможностями адресации (непосред­ственная, индексная и т.д.), давая разработчику возможность выбрать наиболее подходящую команду для выполнения необходимой операции. В RISC-процессорах набор выполняемых команд сокращен до минимума. При этом разработчик должен комбинировать команды, чтобы реализовать более сложные операции.

Возможность равноправного использования всех регистров процессора на­зывается «ортогональностью» или «симметричностью» процессора. Это обес­печивает дополнительную гибкость при выполнении некоторых операций. Рас­смотрим, например, выполнение условных переходов в программе. В CISC-процессорах условный переход обычно реализуется в соответствии с определенным значением бита (флага) в регистре состояния. В RISC-процессорах условный переход может происходить при определенном значении бита, который находится в любом месте памяти. Это значительно упрощает опера­ции с флагами и выполнение программ, использующих эти флаги.

Успех при использовании RISC-процессоров обеспечивается благодаря тому, что их более простые команды требуют для выполнения значительно меньшее число машинных циклов. Таким образом, достигается существенное повышение производительности, что позволяет RISC-процессорам эффек­тивно решать чрезвычайно сложные задачи.

Много лет назад правительство Соединенных Штатов дало задание Гарвард­скому и Принстонскому университетам разработать архитектуру компьютера для военно-морской артиллерии. Принстонский университет разработал ком­пьютер, который имел общую память для хранения программ и данных. Та­кая архитектура компьютеров больше известна как архитектура Фон-Нейма­на по имени научного руководителя этой разработки (рис. 1.3).

В этой архитектуре блок интерфейса с памятью выполняет арбитраж запро­сов к памяти, обеспечивая выборку команд, чтение и запись данных, размеща­емых в памяти или внутренних регистрах. Может показаться, что блок интер­фейса является наиболее узким местом между процессором и памятью, так как одновременно с данными требуется выбирать из памяти очередную команду. Однако во многих процессорах с Принстонской архитектурой эта проблема ре­шается путем выборки следующей команды во время выполнения предыдущей. Такая операция называется предварительной выборкой («предвыборка»), и она реализуется в большинстве процессоров с такой архитектурой.

Рис. 1.3 Структура компьютера с Принстонской архитектурой

Гарвардский университет представил разработку компьютера, в котором для хранения программ, данных и стека использовались отдельные банки па­мяти (рис. 1.4).

Рис. 1.4 Структура компьютера с Гарвардской архитектурой

Принстонская архитектура выиграла соревнование, так как она больше соответствовала уровню технологии того времени. Использование обшей па­мяти оказалось более предпочтительным из-за ненадежности ламповой элек­троники (это было до широкого распространения транзисторов) — при этом возникало меньше отказов.

Гарвардская архитектура почти не использовалась до конца 70-х годов, когда производители микроконтроллеров поняли, что эта архитектура дает преимущества устройствам, которые они разрабатывали.

Основным преимуществом архитектуры Фон Неймана является то, что она упрощает устройство микропроцессора, так как реализует обращение только к одной обшей памяти. Для микропроцессоров самым важным являет­ся то, что содержимое ОЗУ (RAM — Random Access Memory) может быть использовано как для хранения данных, так и для хранения программ. В не­которых приложениях программе необходимо иметь доступ к содержимому стека. Все это предоставляет большую гибкость для разработчика программ­ного обеспечения, прежде всего в области операционных систем реального времени.

Гарвардская архитектура выполняет команды за меньшее количество так­тов, чем архитектура Фон Неймана. Это обусловлено тем, что в Гарвардской архитектуре больше возможностей для реализации параллельных операций. Выборка следующей команды может происходить одновременно с выполне­нием предыдущей команды, и нет необходимости останавливать процессор на время выборки команды.

Например, если процессору с Принстонской архитектурой необходимо считать байт и поместить его в аккумулятор, то в первом цикле из памяти выбира­ется команда, в следующем цикле данные, которые должны быть помещены в аккумулятор, считываются из памяти.

В Гарвардской архитектуре, обеспечивающей более высокую степень па­раллелизма операций, выполнение текущей операции может совмещаться с выборкой следующей команды. Команда также выполняется за два цикла, но выборка очередной команды производится одновременно с вы­полнением предыдущей. Таким образом, команда выполняется всего за один цикл (во время чтения следующей команды).

Читать еще:  Архитектура серверных систем

Этот метод реализации операций («параллелизм») позволяет командам вы­полняться за одинаковое число тактов, что дает возможность более просто опре­делить время выполнения циклов и критических участков программы. Это обсто­ятельство является особенно важным при выборе микроконтроллера для приложений, где требуется строгое обеспечение заданного времени выполнения.

Различные архитектуры и устройства имеют свои специфические особенности, которые позволяют наилучшим образом реализовать те или иные приложения. В некоторых случаях конкретное прило­жение может быть выполнено только с использованием определенной архи­тектуры и специфических особенностей микроконтроллера.

Архитектура вычислительных машин

Различаются Принстонскую и Гарвардскую архитектуру вычислительных машин. Эти архитектурные варианты были предложены в конце 40-х годов специалистами, соответственно, Принстонского и Гарвардского университетов США для разрабатываемых ими моделей компьютеров.

Принстонская архитектура

Принстонская архитектура , которая часто называется архитектурой фон Неймана , характеризуется использованием общей оперативной памяти для хранения программ, данных, а также для организации стека. Для обращения к этой памяти используется общая системная шина, по которой в процессор поступают и команды, и данные.

Архитектура современных персональных компьютеров основана на
магистрально-модульном принципе .

Любую вычислительную машину образуют три основные компонента:

  • процессор,
  • память,
  • устройства ввода-вывода (УВВ).

Информационная связь между устройствами компьютера осуществляется через системную шину (системную магистраль).

Шина – это кабель, состоящий из множества проводников. Количество проводников, входящих в состав шины, является
максимальной разрядностью шины .

Системная шина, в свою очередь, представляет собой совокупность

  • шины данных, служащей для переноса информации;
  • шины адреса, которая определяет, куда переносить информацию;
  • шины управления, которая определяет правила для передачи информации;
  • шины питания, подводящей электропитание ко всем узлам вычислительной машины.

Системная шина характеризуется тактовой частотой и разрядностью. Количество одновременно передаваемых по шине бит называется
разрядностью шины .

Тактовая частота характеризует число элементарных операций по передаче данных в 1 секунду. Разрядность шины измеряется в битах, тактовая частота – в мегагерцах.

Устройство управления (УУ) формирует адрес команды, которая должна быть выполнена в данном цикле, и выдает управляющий сигнал на чтение содержимого соответствующей ячейки запоминающего устройства (ЗУ). Считанная команда передается в УУ. По информации, содержащейся в адресных полях команды, УУ формирует адреса операндов и управляющие сигналы для их чтения из ЗУ и передачи в арифметико-логическое устройство (АЛУ). После считывания операндов устройство управления по коду операции, содержащемуся в команде, выдает в АЛУ сигналы на выполнение операции. Полученный результат записывается в ЗУ по адресу приемника результата под управлением сигналов записи. Признаки результата (знак, наличие переполнения, признак нуля и так далее) поступают в устройство управления, где записываются в специальный регистр признаков. Эта информация может использоваться при выполнении следующих команд программы, например команд условного перехода.

Устройство ввода позволяет ввести программу решения задачи и исходные данные в ЭВМ и поместить их в оперативную память. В зависимости от типа устройства ввода исходные данные для решения задачи вводятся непосредственно с клавиатуры, либо они должны быть предварительно помещены на какой-либо носитель (дисковый накопитель).

Устройство вывода служит для вывода из ЭВМ результатов обработки исходной информации. Чаще всего это символьная информация, которая выводится с помощью печатающих устройств или на экран дисплея.

Запоминающее устройство или память – это совокупность ячеек, предназначенных для хранения некоторого кода. Каждой из ячеек присвоен свой номер, называемый адресом . Информацией, записанной в ячейке, могут быть как команды в машинном виде, так и данные.

Обработка данных и команд осуществляется посредством арифметико-логического устройства (АЛУ), предназначенного для непосредственного выполнения машинных команд под действием устройства управления. АЛУ и УУ совместно образуют центральное процессорное устройство (ЦПУ). Результаты обработки передаются в память.

Основные принципы построения вычислительных машин с архитектурой фон Неймана

  • Принцип двоичности. Для представления данных и команд используется двоичная система счисления.
  • Принцип программного управления. Программа состоит из набора команд, которые выполняются процессором друг за другом в определённой последовательности.
  • Принцип однородности памяти. Как программы (команды), так и данные хранятся в одной и той же памяти (и кодируются в одной и той же системе счисления, чаще всего – двоичной). Над командами можно выполнять такие же действия, как и над данными.
  • Принцип адресуемости памяти. Структурно основная память состоит из пронумерованных ячеек, процессору в произвольный момент времени доступна любая ячейка.
  • Принцип последовательного программного управления. Все команды располагаются в памяти и выполняются последовательно, одна после завершения другой.
  • Принцип условного перехода. Команды из программы не всегда выполняются одна за другой. Возможно присутствие в программе команд условного перехода (а также команд вызова функций и обработки прерываний), которые изменяют последовательность выполнения команд в зависимости от значений данных. Этот принцип был сформулирован задолго до фон Неймана Адой Лавлейс и Чарльзом Бэббиджем, однако был логически включен в указанный набор как дополняющий предыдущий принцип.

Архитектура фон Неймана имеет ряд важных достоинств.

  • Наличие общей памяти позволяет оперативно перераспределять ее объем для хранения отдельных массивов команд, данных и реализации стека в зависимости от решаемых задач. Таким образом, обеспечивается возможность более эффективного использования имеющегося объема оперативной памяти в каждом конкретном случае применения.
  • Использование общей шины для передачи команд и данных значительно упрощает отладку, тестирование и текущий контроль функционирования системы, повышает ее надежность.

Поэтому Принстонская архитектура в течение долгого времени доминировала в вычислительной технике.

Однако ей присущи и существенные недостатки. Основным из них является необходимость последовательной выборки команд и обрабатываемых данных по общей системной шине. При этом общая шина становится «узким местом» (bottleneck – «бутылочное горло»), которое ограничивает производительность цифровой системы.

Гарвардская архитектура

Гарвардская архитектура была разработана Говардом Эйкеном в конце 1930-х годов в Гарвардском университете с целью увеличить скорость выполнения вычислительных операций и оптимизировать работу памяти. Она характеризуется физическим разделением памяти команд (программ) и памяти данных. В ее оригинальном варианте использовался также отдельный стек для хранения содержимого программного счетчика, который обеспечивал возможности выполнения вложенных подпрограмм. Каждая память соединяется с процессором отдельной шиной, что позволяет одновременно с чтением-записью данных при выполнении текущей команды производить выборку и декодирование следующей команды. Благодаря такому разделению потоков команд и данных и совмещению операций их выборки реализуется более высокая производительность, чем при использовании Принстонской архитектуры.

Недостатки Гарвардской архитектуры связаны с необходимостью проведения большего числа шин, а также с фиксированным объемом памяти, выделенной для команд и данных, назначение которой не может оперативно перераспределяться в соответствии с требованиями решаемой задачи. Поэтому приходится использовать память большего объема, коэффициент использования которой при решении разнообразных задач оказывается более низким, чем в системах с Принстонской архитектурой. Однако развитие микроэлектронной технологии позволило в значительной степени преодолеть указанные недостатки, поэтому Гарвардская архитектура широко применяется во внутренней структуре современных высокопроизводительных микропроцессоров, где используется отдельная кэш-память для хранения команд и данных. В то же время во внешней структуре большинства микропроцессорных систем реализуются принципы Принстонской архитектуры.

Отличие гарвардской архитектуры от фон неймановской

показать все

02.04.2020

MBM.MOS перевёл все образовательные мероприятия в онлайн-формат

Читать еще:  Магистрально модульный принцип архитектуры современных

Читать далее

02.04.2020

Skolkovo Cybersecurity Сhallenge 2020: продлен прием заявок

Читать далее

02.04.2020

Школа корпоративных СМИ – онлайн курс от журнала «Пресс-служба»

Читать далее

02.04.2020

Качай скиллы: более 17 тысяч пользователей зарегистрировались в «Онлайн-академии МБМ»

Читать далее

показать все

08.03.2020

Бэкап: облака или софт?

Читать далее

08.03.2020

Считаем эффективность ИТ-проектов

Читать далее

13.02.2020

Чат-бот CallShark не требует зарплаты, а работает круглосуточно

Читать далее

13.02.2020

Цель есть: что дальше?

Читать далее

13.02.2020

Брать или не брать?

Читать далее

24.12.2019

До встречи в «Пьяном Сомелье»!

Читать далее

21.12.2019

Читать далее

21.12.2019

Искусство как награда Как изготавливали статуэтки для премии IT Stars им. Георгия Генса в сфере инноваций

Читать далее

04.12.2019

ЛАНИТ учредил премию IT Stars памяти основателя компании Георгия Генса

Читать далее

04.06.2019

Маркетолог: привлекать, продавать, продвигать?

Читать далее

показать все

Главная / Архив номеров / 2013 / Выпуск №8 (31) / Armand: принстонская и гарвардская архитектуры

Рубрика: Управление проектами

Александр Тетюшев , к.т.н., доцент кафедры АВТ, Вологодского государственного технического университета (ВоГТУ)

Armand: принстонская и гарвардская архитектуры

В 30-х годах прошлого века военное ведомство США поручило Гарвардскому и Принстонскому университетам разработать электромеханическую вычислительную систему для военно-морской артиллерии. Результатом усилий этих университетов стали две концепции построения вычислительных систем, которые определили развитие мировой вычислительной техники почти на 100 лет вперед. Мы знаем их как гарвардская и принстонская (более известная как фон-неймановская) архитектуры

Их основное отличие заключалось в том, что архитектура фон Неймана использовала единую память (общую шину данных), а гарвардская предполагала наличие нескольких шин (в оригинале две: шина данных и шина команд).

Преимущества машины фон Неймана оценили сразу, поскольку в ней содержалось значительно меньше проводников между арифметико-логическим устройством (АЛУ) и областью памяти, и на долгие годы она стала эталоном для создания ВС. Именно фон-неймановская архитектура с подачи Джона Кока являлась прародителем процессоров RISC (Reduced Instruction Set Computer – вычисления с сокращенным набором команд).

Время шло, и в 70-х годах прошлого века появились полупроводники, в которых можно было создавать сотни микроскопических проводников. Проблема множества контактов была снята, и наступила эра гарвардской архитектуры. Действительно, если процессор имеет несколько шин, он может одновременно выполнить несколько действий. В этом случае за один такт гарвардский процессор может выполнить несколько операций, существенно опередив попроизводительности аналогичный фон-неймановский процессор. Чтобы это понять, достаточно посмотреть на схемы двух архитектур.

Рисунок 1. Вычислительные архитектуры

Появление процессоров на гарвардской архитектуре мировое сообщество восприняло прохладно, поскольку в начале 70-х годов не было программного обеспечения, способного реализовать его потенциал. Их за глаза называли процессорами «для бедных», поскольку они не могли работать на больших частотах.

Но все изменилось после появления персонального компьютера Apple I, в основе которого был восьмиразрядный процессор MOS 6502 на гарвардской архитектуре с операционной системой Apple DOS.

Простота ОС компенсировалась достаточно сложным процессором, названным впоследствии CISC (Complex Instruction Set Computer – вычисления с комплексным набором команд), с отдельной 16-разрядной адресной шиной ивозможностью произвольного манипулирования регистрами. Монолитная однопользовательская ОС позволила выжать из него небывалую по тем временам производительность при решении отдельных задачах.

Через несколько лет корпорация IBM бросилась догонять Apple, практически повторив ее идею. В основе созданного ею персонального компьютера (более известного нам как IBM-PC) были гарвардский процессор фирмы Intel и ОС Microsoft DOS. Впоследствии такие комплексы получили общеизвестную аббревиатуру – Wintel.

Естественно, что за скорость CISC-процессора приходилось платить удвоенным/утроенным количеством контактов, что не только перегревало процессор, но и накладывало ограничения на его размеры. В среднем на каждые 20% прироста производительности потребляемая мощность гарвардского процессора увеличивалась до 50%.

Выходом из этой ситуации стало появление многоядерных процессоров, в которых частота работы каждого вычислительного ядра была понижена, но суммарная производительность превышала даже показатели разогнанного одноядерного. Для наглядности на рис. 2 показан пример того, как меняются производительность и энергопотребление центрального процессора при изменении частот и количества ядер.

Рисунок 2. Преимущество многоядерных систем

Массовый переход на многоядерные вычислительные системы ознаменовался тем, что эра классического программирования закончилась. Многопоточные вычисления потребовали изменения алгоритмов программирования, иклассические, построенные на блок-схемах, алгоритмы практически перестали работать. Образовался серьезный разрыв между возможностями вычислительной техники и возможностями вычислительной математики. Закон Амдала только усугубил проблему, поскольку согласно ему создать полностью распараллеленный вычислительный алгоритм невозможно. Алгоритмов без определенной доли последовательных операций просто не существует.

Практически это означает, что для каждой задачи есть предельное количество вычислительных ядер, превышение которого не приведет к увеличению скорости вычисления. Следствием закона Амдала является утверждение, что при любом типе вычислений одно из вычислительных ядер процессора всегда загружено больше остальных. Опираясь на эти выводы, можно было предположить, что будут созданы многоядерные системы, содержащие различные типы вычислительных ядер.

Архитектура ARM – Advanced RISC Machine (в оригинале – Acorn RISC Machine), усовершенствованная RISC-машина – была построена на базе фон-неймановской архитектуры, но включала особенности процессоров CISC, что логично, поскольку в его основе лежал MOS 6502. В частности, машина ARM предполагала чрезвычайно простую реализацию вычислительного ядра, управляемого через контролируемый ввод. Именно технология, разработанная консорциумом ARM, позволила собрать на одном кристалле несколько различных вычислительных ядер, каждое из которых могло выполнять определенные функции.

Такая сборка получила название Soc (System on chip), поскольку к общей шине данных подключались не только вычислительные ядра процессора, но и видеоадаптер и контроллер памяти.

Всевозможные сочетания вычислительных ядер в Soc позволяли получать широкий спектр устройств, каждое из которых могло обладать своими уникальными особенностями. На базе Soc легко формировались телефоны, планшеты, телевизоры, плееры, видеокамеры и т.д. Но, чтобы реализовать эти возможности, требовалась специальная программная среда, легко модифицируемая под ту или иную сборку Soc.

Первой такой средой стала операционная система компании Apple – iPhone OS (впоследствии – Apple iOS), построенная на базе ядра Darwin (урезанного ядра BSD). Небольшое монолитное ядро, настроенное под конкретную Soc, как и вслучае с Apple DOS, позволяло получить максимальную отдачу от оборудования, а простота реализации вычислительных ядер обеспечивала существенную экономию энергопотребления.

А потом все заново повторилось, как 30 лет назад. Корпорация Google (современная IBM) решила обыграть идею Apple. Надо сказать, что в отличие от Apple, которая сама формировала оборудование, Google сразу замахнулась на широкий спектр возможных комбинаций Soc. И здесь тоже появилась своя «Microsoft» – Android inc, которая предложила операционную систему, архитектурно повторяющую Apple iOS, но позволяющую работать на нескольких типах Soc (см. рис. 3).

Рисунок 3. Операционные системы Android и iOS

Корневым отличием ОС Android OS от Apple iOS стало ядро, построенное на базе урезанного модульного ядра Linux. Подгружаемые по требованию модули позволяют переносить Android OS на широкий спектр оборудования, не пересобирая его каждый раз под новое устройство. Безусловно, при такой архитектуре Android имеет не только положительные, но и отрицательные характеристики.

Операционная система Android OS медленнее Apple iOS при вводе-выводе, потребность в оперативной памяти у нее выше, а также она менее эффективно работает с Soc. Но, сделав ставку на закон Мура, как в свое время это поступила корпорация IBM, Google выиграла, поскольку технические средства фирм – лицензиатов ARM развиваются быстрее аналогичных устройств Apple, а спектр возможных комбинаций Soc существенно шире возможностей Apple.

Читать еще:  Архитектура приложения пример

Сегодня мало у кого вызывает сомнение, что связка ARM и Android пришла надолго, сформировав новое направление, условно названное мной Armand (ARM + Android). Именно это сочетание мы скорее всего встретим сначала в бытовых приборах, а потом в медицине.

Безусловно, эра Wintel не закончилась и не закончится в ближайшее время, поскольку это основной мировой вычислительный инструмент. Стоимость вычислений на базе Wintel самая низкая в мире. И это несмотря на большую стоимость программных продуктов, разрабатываемых для этой платформы.

Но и Armand ждет не менее блестящее будущее. Эта платформа может стать основным инструментом в медицине. Последние сборки Soc, построенные на совмещении мощных и энергоэкономичных вычислительных ядер, позволяют предполагать появление устройств, существенно облегчающих жизнь больных людей.

Такие устройства будут экономичны в режиме ожидания и высокоэффективны в режиме активной работы. Управление экзоскелетами пожилых людей, браслеты с лекарством для диабетиков, речевые импланты – вот те немногие направления, в которых участие Armand очевидно.

Фон Нейман и Гарвардская архитектура 2020

Существует два типа цифровых компьютерных архитектур, которые описывают функциональность и реализацию компьютерных систем. Одна из них — архитектура фон Неймана, разработанная известным физиком и математиком Джоном Фон Нейманом в конце 1940-х годов, а другая — гарвардской архитектурой, основанной на оригинальном ретрансляционном компьютере Гарварда Марка I, который использовал отдельные системы памяти для хранить данные и инструкции.

Оригинальная архитектура Гарварда использовалась для хранения инструкций на перфоленте и данных в электромеханических счетчиках. Архитектура Von Neumann является основой современных вычислений и ее проще реализовать. В этой статье рассматриваются две компьютерные архитектуры в отдельности и объясняются различия между ними.

Что такое архитектура фон Неймана?

Это теоретический дизайн, основанный на концепции компьютеров с хранимой программой, где данные программы и данные инструкций хранятся в одной и той же памяти.

Архитектура была спроектирована известным математиком и физиком Джоном Фон Нейманом в 1945 году. До тех пор, пока концепция компьютерного дизайна фон Неймана не была разработана, компьютерные машины были разработаны для одной заданной цели, которая не имела бы сложности из-за ручной перемотки схемы.

Идея архитектуры Von Neumann заключается в возможности хранить инструкции в памяти вместе с данными, на которых действуют инструкции. Короче говоря, архитектура фон Неймана относится к общей структуре, которой должны следовать аппаратные средства, программирование и данные компьютера.

Архитектура Von Neumann состоит из трех различных компонентов: центрального процессора (CPU), блока памяти и интерфейсов ввода / вывода (I / O). ЦП является сердцем компьютерной системы, состоящей из трех основных компонентов: Арифметического и Логического блока (ALU), блока управления (CU) и регистров.

ALU отвечает за выполнение всех арифметических и логических операций с данными, тогда как блок управления определяет порядок потока команд, которые должны выполняться в программах, путем выдачи управляющих сигналов на оборудование.

Регистры — это, в основном, временные хранилища, в которых хранятся адреса инструкций, которые необходимо выполнить. Блок памяти состоит из ОЗУ, который является основной памятью, используемой для хранения данных программы и инструкций. Интерфейсы ввода / вывода позволяют пользователям общаться с внешним миром, например с устройствами хранения.

Что такое Гарвардская архитектура?

Это компьютерная архитектура с физически раздельными хранилищами и сигнальными путями для программных данных и инструкций. В отличие от архитектуры фон Неймана, в которой используется одна шина для извлечения команд из памяти и передачи данных с одной части компьютера на другую, архитектура Гарварда имеет отдельное пространство памяти для данных и команд.

Обе концепции подобны, за исключением того, как они получают доступ к воспоминаниям. Идея архитектуры Гарварда состоит в том, чтобы разделить память на две части — одну для данных и другую для программ. Термины были основаны на оригинальном ретрансляционном компьютере Гарварда Марк I, который использовал систему, которая позволяла одновременно выполнять как передачу данных, так и передачу и выбор команд.

Реальные компьютерные проекты на самом деле основаны на модифицированной архитектуре Гарварда и обычно используются в микроконтроллерах и DSP (Digital Signal Processing).

Разница между Фон Нейманом и Гарвардской архитектурой

Основы фон Неймана и Гарвардской архитектуры

Архитектура фон Неймана — теоретический компьютерный дизайн, основанный на концепции хранимой программы, где программы и данные хранятся в одной и той же памяти. Концепция была разработана математиком Джоном Фон Нейманом в 1945 году и которая в настоящее время служит основой почти всех современных компьютеров. Архитектура Гарварда была основана на оригинальной компьютерной модели на базе ретрансляции Гарварда Марка I, в которой использовались отдельные шины для данных и инструкций.

Система памяти фон Неймана и Гарвардской архитектуры

Архитектура Von Neumann имеет только одну шину, которая используется как для извлечения команд, так и для передачи данных, и операции должны быть запланированы, потому что они не могут быть выполнены одновременно. С другой стороны, архитектура Гарварда имеет отдельное пространство памяти для инструкций и данных, которые физически разделяют сигналы и память для памяти кода и данных, что, в свою очередь, позволяет одновременно обращаться к каждой из систем памяти.

Инструкция по обработке фон Неймана и Гарвардской архитектуры

В архитектуре фон Неймана для обработки инструкции для обработки потребуется два тактовых цикла. Процессор извлекает команду из памяти в первом цикле и декодирует ее, а затем данные берутся из памяти во втором цикле. В архитектуре Гарварда процессор может выполнить инструкцию за один цикл, если будут созданы соответствующие стратегии конвейерной обработки.

Стоимость фон Неймана и Гарвардской архитектуры

Поскольку инструкции и данные используют одну и ту же систему шин в архитектуре Von Neumann, это упрощает проектирование и разработку блока управления, что в конечном итоге снижает себестоимость продукции до минимальной. Разработка блока управления в архитектуре Гарварда дороже, чем первая из-за сложной архитектуры, которая использует две шины для инструкций и данных.

Использование архитектуры фон Неймана и Гарварда

Архитектура фон Неймана в основном используется на всех машинах, которые вы видите на настольных компьютерах и ноутбуках, на высокопроизводительных компьютерах и рабочих станциях. Гарвардская архитектура — довольно новая концепция, используемая в основном для микроконтроллеров и цифровой обработки сигналов (DSP).

Фон Нейман против Гарвардской архитектуры: сравнительная таблица

Резюме фон Неймана против Гарвардской архитектуры

Архитектура фон Неймана похожа на архитектуру Гарварда, за исключением того, что использует одну шину для выполнения как выборки команд, так и передачи данных, поэтому операции должны быть запланированы. С другой стороны, архитектура Гарварда использует два отдельных адреса памяти для данных и инструкций, что позволяет одновременно передавать данные в оба автобуса. Однако сложная архитектура только добавляет стоимости разработки блока управления к более низкой стоимости разработки менее сложной архитектуры фон Неймана, в которой используется единый унифицированный кеш.

0 0 голоса
Рейтинг статьи
Ссылка на основную публикацию
ВсеИнструменты
×
×