Загальні принципи побудови та функціонування комп’ютерних систем

Початком історії зародження і розвитку обчислювальної техніки став 1833 рік, коли англійський математик Чарльз Беббідж вперше проникся ідеєю створення механічного «обчислювального помічника», використовуючи принцип програмного управління. Було потрібно більше 100 років, щоб ця ідея, доповнена американським математиком Джоном фон Нейманом в 1945 - 47 рр. І основана на електронних лампах, що з'явилися на той час, поклала початок ери ЕОМ. З моменту створення в 1947 р. першої програмно-керованої цифрової ЕОМ почався бурхливий прогрес обчислювальної техніки. Вдосконалення елементної бази і еволюція архітектурних рішень привело до істотного зменшення розмірів, вартості і енергоспоживання, а також до підвищення швидкодію і надійність ЕОМ. Великі успіхи досягнуті також в області периферійного устаткування, що істотно полегшило спілкування користувачів з ЕОМ і підвищило ємкість накопичувачів інформації.

Згідно принципам роботи ЕОМ, сформульованих фон Нейманом, центральний процесор складається з двох частин. Пристрій управління сприймає команди програм і організовує їх виконання. Арифметико-логічний пристрій виконує обчислення.

Дані зберігаються в різних запам’ятовуючих пристроях. Для довготривалого зберігання інформації використовуються постійні носії, які служать для введення даних і виведення результатів роботи. Для зберігання виконуваних в даний момент програм і проміжних даних використовується оперативна пам’ять, яка працює значно швидше від постійної пам’яті.

Взаємодія користувача з персональним комп'ютером – введення даних і 10 надання результатів їх обробки реалізується широким спектром пристроїв введення-виведення.

Найважливіший компонент будь-якого персонального комп'ютера – це мікропроцесор (CPU, Central Processor Unit - ЦП), який управляє роботою комп'ютера і виконує велику частину обробки інформації. Мікропроцесор є надвеликою інтегральною схемою, ступінь інтеграції якої визначається розміром кристала і кількістю реалізованих в нім транзисторів. Іноді інтегральні мікросхеми називають чіпами (англ. chip). Базовими елементами мікропроцесора є транзисторні перемикачі, на основі яких будуються, наприклад, регістри, що є сукупністю пристроїв, що мають два стійкі стани і призначених для зберігання інформації і швидкого доступу до неї. Кількість і розрядність регістрів багато в чому визначають архітектуру мікропроцесора.

Виконувані мікропроцесором команди передбачають, як правило, арифметичні дії, логічні операції, передачу управління (умовну і безумовну) і пересилання даних (між регістрами, оперативною пам'яттю і портами введення/виводу). Із зовнішніми пристроями мікропроцесор може спілкуватися завдяки своїм шинам адреси, даних і управління.

Об'єм пам'яті, що фізично адресується мікропроцесором, однозначно визначається розрядністю зовнішньої адресної шини як 2N, де N – кількість адресних ліній.

Перші покоління комп'ютерів розроблялися на основі концепції жорсткої архітектури. Кожна модель містила унікальне обчислювальне ядро і орієнтувалася на обслуговування абсолютно певного набору каналів введення-виведення-виводу, що забезпечувалося спеціалізованим програмним забезпеченням. Довільна конфігурація моделі була неможлива, і будь-які функціональні модифікації могли бути здійснені тільки фірмою розробником шляхом проведення комплексних доопрацювань архітектури комп'ютера.

У надрах останнього покоління комп'ютерів, що передувало епосі персональних комп'ютерів, народилася концепція відкритої архітектури. Згідно цієї концепції, конкретна конфігурація моделі могла бути визначена на стадії виробництва або навіть уточнена користувачем.

Відкрита архітектура передбачає строгу стандартизацію головних системних шин і свободу підключення до головної шини через відповідні пристрої управління (контроллери, карти) будь-якого (з деякими обмеженнями) набору пристроїв введення і виведення інформації, що розміщені у будь-якому порядку. Це забезпечує конфігурацію конкретного комп'ютера ніби із «кубиків» відповідно до його цільового призначення. З іншого боку, така концепція забезпечує розподіл праці при розробці окремих блоків і масовому виробництві комп'ютерів, їх сумісність, швидку і безболісну модернізацію, безперервне здешевлення на базі конкуренції.

З початку розвитку комп’ютерів і приблизно до 2000-2005 років провідні виробники мікропроцесорів досягали збільшення продуктивності останніх не на стільки за рахунок вдосконалення архітектурних рішень, як за рахунок збільшення тактової частоти процесорів. Але така тенденція на сьогоднішній день не є актуальною, оскільки подальше збільшення частоти при даному рівні технологій приводить до неоправдано високих затрат. Тому сучасна стратегія розвитку процесорів персональних ЕОМ пов’язана із збільшенням процесорів або обчислювальних ядер.

Виникнення терміну «ядро» пов'язане з модифікацією архітектури процесора, що, у свою чергу, багато в чому визначається застосуванням технології виробництва 12 мікропроцесорів з вищим рівнем інтеграції, що дає можливість реалізувати на кристалі нові технології обробки інформації.

Перший двохядерний процесор Power4 для серверів був анонсований фірмою IBM у 1999році, а у 2001році було розпочато їх продаж. У 2002 році AMD і Intel оголошують про перспективи створення своїх двохядерних процесорів.

Ідея багатоядерного процесора виглядає на перший погляд абсолютно тривіальною: просто упаковуємо два-три (або більш) процесори в один корпус - і комп'ютер отримує можливість виконувати декілька програмних потоків одночасно. Таке рішення є більш економічно оправданим, аніж застосування багатопроцесорних систем, проте часто є менш ефективним

Виникнення паралельного програмування:

  1. Виникнення нових апаратних можливостей
  2. Поступовий розвиток паралельного програмування з пристосуванням до змін у апаратному забезпеченні
  3. Узагальнення та об’єднання спеціалізованих методів у набір основних принципів та методів програмування

1 етап - 1960-і

  • виникнення паралельного програмування у сфері ОС
  • виникнення:
    • каналів (буферів),
    • контролерів пристроїв
    • переривань.
  • перші проблеми паралельного виконання (критичні секції)

2 етап - 1970-і

  • виникнення мультипроцесорних та розподілених систем та прикладних паралельних та розподілених програм
  • Поява мереж та мультипроцесорних систем (SIMD)

3 етап - 1980-і

  • виникнення машин з масовим паралелізмом
  • Винайдення гіперкубових машин, багатопроцесорні версії Cray
    • Clock Speed: 120MHz
    • Dates Used: 1986 - 1990
    • Number of Processors: 4
    • $14.6 million

4 етап - 1980-1990-і

  • широке розповсюдження розподіленого програмування

5 етап – 2000-ні

  • Масовий паралелізм з використанням тисяч процесорів
  • Широке використання клієнт-серверних технологій у мережах
  • Поява багатопроцесорних робочих станцій та гаджетів
  • Необхідність використання паралельних обчислень у прикладному ПЗ

6 етап – Сучасність

  • Криптовалюти зацікавили у розробці ефективних та потужних систем.
  • Big Data – необхідності обробки величезних об’ємів інформації. Окремі комп’ютери не справляються – необхідність у розподілених обчисленнях.
Остання зміна: понеділок, 9 березня 2020, 18:31
Доступність

Шрифти Шрифти

Розмір шрифта Розмір шрифта

1

Колір тексту Колір тексту

Колір тла Колір тла

Кернінг шрифтів Кернінг шрифтів

Видимість картинок Видимість картинок

Інтервал між літерами Інтервал між літерами

0

Висота рядка Висота рядка

1.2

Виділити посилання Виділити посилання

Вирівнювання тексту Вирівнювання тексту

Ширина абзацу Ширина абзацу

0