Różnica Między Komputerem Analogowym A Cyfrowym

Różnica Między Komputerem Analogowym A Cyfrowym
Różnica Między Komputerem Analogowym A Cyfrowym

Wideo: Różnica Między Komputerem Analogowym A Cyfrowym

Wideo: Różnica Między Komputerem Analogowym A Cyfrowym
Wideo: KŚ Wyjaśnia: różnica między HDMI a DisplayPort 2024, Kwiecień
Anonim

Komputer analogowy i cyfrowy

Komputer to urządzenie, które można zaprogramować do wykonywania skończonego zestawu instrukcji w domenie arytmetycznej lub logicznej. Komputery działają poprzez sekwencyjne wykonywanie instrukcji, a instrukcje te można w razie potrzeby zmieniać, dając komputerowi możliwość rozwiązywania problemów natury ogólnej, a nie konkretnego problemu.

Komputery mogą działać w oparciu o zasady i komponenty mechaniczne lub elektryczne. Ogólnie komputer ma jednostkę przetwarzającą do wykonywania operacji logicznych lub arytmetycznych oraz pamięć do przechowywania instrukcji.

Więcej o komputerach analogowych

W komputerze analogowym do modelowania problemu do rozwiązania wykorzystuje się stale zmieniającą się właściwość fizyczną. Rozwój komputerów analogowych trwa tysiące lat wstecz w historii ludzkości. Najstarszym komputerem analogowym znanym człowiekowi jest maszyna z Antykithiry, która jest urządzeniem służącym do pomiaru pozycji astronomicznych i datowana jest na 100 pne. Astrolabia i suwaki to także przykłady komputerów analogowych.

Komputery analogowe osiągnęły swój szczyt pod koniec XVIII i na początku XIX wieku, kiedy rewolucja technologiczna zainspirowała wiele analogowych urządzeń komputerowych. W czasie II wojny światowej nowe komputery analogowe były używane do szyfrowania i wspomagania strzelaniny.

Zasilane elektrycznie komputery analogowe wykorzystują do operacji wielkość ciągłych sygnałów elektrycznych, takich jak napięcie, prąd i częstotliwość sygnału, i składają się z obwodów zbudowanych ze wzmacniaczy operacyjnych, rezystorów kondensatorów i generatorów o stałej funkcji. Obwody te wykonywały sumowanie, całkowanie względem czasu, inwersję, mnożenie, potęgowanie, logarytmy i dzielenie jako podstawową operację matematyczną w celu uzyskania wyników wyższego rzędu na wyjściu.

Nawet dzisiaj komputery analogowe są używane, ale do znacznie prostszych zadań, głównie ze względu na czynniki kosztowe.

Więcej o komputerach cyfrowych

Komputery cyfrowe działają przy użyciu dyskretnych sygnałów elektrycznych, a nie ciągłych sygnałów elektrycznych i stały się obecnie najbardziej dominującą formą komputerów ze względu na ich wszechstronność i moc. Pierwsze elektroniczne komputery cyfrowe powstały na początku lat czterdziestych XX wieku w Wielkiej Brytanii i Stanach Zjednoczonych. Były to duże maszyny zużywające duże ilości energii elektrycznej i przez to drogie, a komputery mechaniczne miały przewagę nad komputerami cyfrowymi.

Kiedy budowano mniejsze komputery, maszyny były projektowane do określonych zadań, stąd brakowało im wszechstronności. Wraz z rozwojem technologii półprzewodników, bloki konstrukcyjne dużych komputerów zostały zastąpione małymi, mniej energochłonnymi urządzeniami, a komputery cyfrowe szybko się rozwinęły.

Nowoczesne komputery cyfrowe są budowane przy użyciu układów scalonych, które mieszczą miliardy komponentów w skali nanometrowej w małym kawałku krzemu nie większym niż miniatura, ale o mocy obliczeniowej kilku tysięcy komputerów zbudowanych na początku XX wieku. Dlatego komputery cyfrowe są używane do wszystkich zaawansowanych aspektów rozwiązywania problemów lub przetwarzania.

Jaka jest różnica między komputerami analogowymi a komputerami cyfrowymi?

• Komputery analogowe pracują na pomiarze ciągłych właściwości fizycznych, stąd praca jest przez większość czasu liniowa i ciągła, podczas gdy komputery cyfrowe wykorzystują dyskretne sygnały elektryczne o dwóch możliwych stanach.

• Komputer analogowy może w ogóle nie mieć pamięci, podczas gdy komputery cyfrowe zdecydowanie wymagają pamięci do swojego działania.

• Komputery analogowe działają wolniej niż komputery cyfrowe.

• Komputery analogowe zapewniają dokładne wyniki obliczeń, podczas gdy komputery cyfrowe tracą dokładność operacji z powodu dyskretnej natury sygnałów.

• Komputery analogowe są przeznaczone do określonego pojedynczego celu, podczas gdy komputery cyfrowe są przeznaczone do celów ogólnych.

Zalecane: