Wideo: Różnica Między Komputerem Analogowym A Cyfrowym
2024 Autor: Mildred Bawerman | [email protected]. Ostatnio zmodyfikowany: 2023-12-16 08:41
Komputer analogowy i cyfrowy
Komputer to urządzenie, które można zaprogramować do wykonywania skończonego zestawu instrukcji w domenie arytmetycznej lub logicznej. Komputery działają poprzez sekwencyjne wykonywanie instrukcji, a instrukcje te można w razie potrzeby zmieniać, dając komputerowi możliwość rozwiązywania problemów natury ogólnej, a nie konkretnego problemu.
Komputery mogą działać w oparciu o zasady i komponenty mechaniczne lub elektryczne. Ogólnie komputer ma jednostkę przetwarzającą do wykonywania operacji logicznych lub arytmetycznych oraz pamięć do przechowywania instrukcji.
Więcej o komputerach analogowych
W komputerze analogowym do modelowania problemu do rozwiązania wykorzystuje się stale zmieniającą się właściwość fizyczną. Rozwój komputerów analogowych trwa tysiące lat wstecz w historii ludzkości. Najstarszym komputerem analogowym znanym człowiekowi jest maszyna z Antykithiry, która jest urządzeniem służącym do pomiaru pozycji astronomicznych i datowana jest na 100 pne. Astrolabia i suwaki to także przykłady komputerów analogowych.
Komputery analogowe osiągnęły swój szczyt pod koniec XVIII i na początku XIX wieku, kiedy rewolucja technologiczna zainspirowała wiele analogowych urządzeń komputerowych. W czasie II wojny światowej nowe komputery analogowe były używane do szyfrowania i wspomagania strzelaniny.
Zasilane elektrycznie komputery analogowe wykorzystują do operacji wielkość ciągłych sygnałów elektrycznych, takich jak napięcie, prąd i częstotliwość sygnału, i składają się z obwodów zbudowanych ze wzmacniaczy operacyjnych, rezystorów kondensatorów i generatorów o stałej funkcji. Obwody te wykonywały sumowanie, całkowanie względem czasu, inwersję, mnożenie, potęgowanie, logarytmy i dzielenie jako podstawową operację matematyczną w celu uzyskania wyników wyższego rzędu na wyjściu.
Nawet dzisiaj komputery analogowe są używane, ale do znacznie prostszych zadań, głównie ze względu na czynniki kosztowe.
Więcej o komputerach cyfrowych
Komputery cyfrowe działają przy użyciu dyskretnych sygnałów elektrycznych, a nie ciągłych sygnałów elektrycznych i stały się obecnie najbardziej dominującą formą komputerów ze względu na ich wszechstronność i moc. Pierwsze elektroniczne komputery cyfrowe powstały na początku lat czterdziestych XX wieku w Wielkiej Brytanii i Stanach Zjednoczonych. Były to duże maszyny zużywające duże ilości energii elektrycznej i przez to drogie, a komputery mechaniczne miały przewagę nad komputerami cyfrowymi.
Kiedy budowano mniejsze komputery, maszyny były projektowane do określonych zadań, stąd brakowało im wszechstronności. Wraz z rozwojem technologii półprzewodników, bloki konstrukcyjne dużych komputerów zostały zastąpione małymi, mniej energochłonnymi urządzeniami, a komputery cyfrowe szybko się rozwinęły.
Nowoczesne komputery cyfrowe są budowane przy użyciu układów scalonych, które mieszczą miliardy komponentów w skali nanometrowej w małym kawałku krzemu nie większym niż miniatura, ale o mocy obliczeniowej kilku tysięcy komputerów zbudowanych na początku XX wieku. Dlatego komputery cyfrowe są używane do wszystkich zaawansowanych aspektów rozwiązywania problemów lub przetwarzania.
Jaka jest różnica między komputerami analogowymi a komputerami cyfrowymi?
• Komputery analogowe pracują na pomiarze ciągłych właściwości fizycznych, stąd praca jest przez większość czasu liniowa i ciągła, podczas gdy komputery cyfrowe wykorzystują dyskretne sygnały elektryczne o dwóch możliwych stanach.
• Komputer analogowy może w ogóle nie mieć pamięci, podczas gdy komputery cyfrowe zdecydowanie wymagają pamięci do swojego działania.
• Komputery analogowe działają wolniej niż komputery cyfrowe.
• Komputery analogowe zapewniają dokładne wyniki obliczeń, podczas gdy komputery cyfrowe tracą dokładność operacji z powodu dyskretnej natury sygnałów.
• Komputery analogowe są przeznaczone do określonego pojedynczego celu, podczas gdy komputery cyfrowe są przeznaczone do celów ogólnych.
Zalecane:
Różnica Między Sygnałem Analogowym A Sygnałem Cyfrowym
Kluczowa różnica między sygnałem analogowym a cyfrowym polega na tym, że sygnał analogowy jest ciągłym sygnałem czasu, podczas gdy sygnał cyfrowy jest czasem dyskretnym
Różnica Między Multimetrem Analogowym I Cyfrowym
Multimetr analogowy vs cyfrowy Multimetr lub multitester to przyrząd pomiarowy stosowany w elektronice, który jest przeznaczony do wykonywania zadań
Różnica Między Cyfrowym A Analogowym
Cyfrowy a analogowy Cyfrowy i analogowy to dwa terminy omawiane w fizyce. Istota cyfrowa to coś, co jest dyskretne, a jednostka analogowa to trochę
Różnica Między Podpisem Cyfrowym A Certyfikatem Cyfrowym
Podpis cyfrowy a certyfikat cyfrowy Podpis cyfrowy to mechanizm używany do sprawdzania, czy dany dokument cyfrowy lub wiadomość jest autentyczna
Różnica Między Opóźnieniem Analogowym A Opóźnieniem Cyfrowym
Opóźnienie analogowe a opóźnienie cyfrowe Opóźnienie analogowe i cyfrowe to dwie różne metody tworzenia efektów dźwiękowych w muzyce. Opóźnienie to słowo powszechnie używane na świecie