Co studiuje IT?



The IT to nowoczesna nauka badająca metody, procesy i techniki przetwarzania, przesyłania lub przechowywania danych w sposób cyfrowy.

Dzięki wielkiemu postępowi technologii z drugiej połowy XX wieku ta dyscyplina zyskała na znaczeniu w działalności produkcyjnej, jednocześnie zwiększając jej specyfikę.

Rozwój komputerów, obwodów zamkniętych, robotów, maszyn, telefonów komórkowych i pojawienie się Internetu czynią informatykę jedną z najbardziej dynamicznie rozwijających się nauk ostatnich dziesięcioleci.

Etymologia słowa komputer ma kilka możliwych źródeł. Pojawił się głównie jako skrót od słów informacja i automatyka (informacje automatyczne).

W 1957 r. To Karl Steinbuch, który włączył ten termin do dokumentu o nazwie Informatik: Automatische Informationsverarbeitung.

Podczas gdy w 1962 roku francuski inżynier Philippe Dreyfus nazwał swoją firmę Société d'Informatique Appliquée. Jednak to Rosjanin Aleksander Iwanowicz Michajłow po raz pierwszy użył tego terminu jako „studium, organizacja i rozpowszechnianie informacji naukowej”.

Wśród jego szerokiego zakresu zastosowań nauka ta poświęcona jest badaniu automatycznego przetwarzania informacji za pomocą urządzeń elektronicznych i systemów komputerowych, które mogą być wykorzystywane do różnych celów.

Co studiuje IT? Aplikacje

Dziedzina zastosowania informatyki poszerzała swoje spektrum wraz z rozwojem technologicznym w ostatnim półwieczu, głównie przez impuls komputerów i internetu.

Do jego głównych zadań należą: projektowanie, rozwój, planowanie obwodów zamkniętych, przygotowanie dokumentów, monitorowanie i kontrola procesów.

Odpowiada również za tworzenie robotów przemysłowych, a także zadania związane z ogromnym polem telekomunikacji oraz produkcją gier, aplikacji i narzędzi na urządzenia mobilne..

Tworzenie technologii informatycznych

Informatyka jest nauką, w której wiedza i wiedza z różnych dyscyplin zbiegają się, zaczynając od matematyki i fizyki, ale także informatyki, programowania i projektowania, między innymi..

Ten synergiczny związek między różnymi gałęziami wiedzy jest uzupełniony informatyką o pojęcia sprzętu, oprogramowania, telekomunikacji, internetu i elektroniki.

Historia

Historia informatyki rozpoczęła się na długo przed dyscypliną, która nosi jego imię. Towarzyszyła ludzkości niemal od jej początków, ale nie została uznana za naukę.

Od czasu powstania chińskiego liczydła, zarejestrowanego w 3000 rpne i uważanego za pierwsze narzędzie obliczeniowe ludzkości, możemy mówić o informatyce.

Ta tabela podzielona na kolumny pozwoliła na ruchy swoich jednostek do wykonywania operacji matematycznych, takich jak dodawanie i odejmowanie. Może być punkt wyjścia tej nauki.

Ale ewolucja informatyki właśnie zaczęła się od liczydła. W XVII wieku Blaise Pascal, jeden z najbardziej znanych francuskich naukowców swoich czasów, stworzył maszynę liczącą i promował kolejny krok ewolucyjny.

To urządzenie służyło tylko do dodawania i odejmowania, ale było podstawą niemieckiego Leibniza, prawie 100 lat później, w XVIII wieku, opracować podobne urządzenie, ale z mnożeniem i podziałami.

Te trzy kreacje były pierwszymi procesami komputerowymi, które mają rejestrację. Musieliśmy czekać prawie 200 lat, aby ta dyscyplina stała się istotna i stała się nauką.

W pierwszych dziesięcioleciach XX wieku rozwój elektroniki był ostatnim impulsem nowoczesnej informatyki. Stąd ta gałąź nauki zaczyna rozwiązywać problemy techniczne wynikające z nowych technologii.

W tym czasie nastąpiła zmiana z systemów opartych na przekładniach i prętach na nowe procesy impulsów elektrycznych, skatalogowanych przez 1, gdy prąd przechodzi i przez 0, gdy nie, co zrewolucjonizowało tę dyscyplinę.

Ostatni krok został podjęty podczas II wojny światowej wraz z utworzeniem pierwszego komputera, Marka I, który otworzył nowe pole rozwoju, które wciąż się rozwija.

Podstawowe pojęcia informatyki

Informatyka, rozumiana jako przetwarzanie informacji automatycznie za pomocą urządzeń elektronicznych i systemów komputerowych, musi mieć pewne możliwości, aby móc się rozwijać.

Trzy podstawowe operacje to podstawa: wpis, który odnosi się do zbierania informacji; przetwarzanie tych samych informacji i danych wyjściowych, czyli możliwość przesyłania wyników.

Zestaw tych możliwości urządzeń elektronicznych i systemów komputerowych jest znany jako algorytm, który jest uporządkowanym zestawem systematycznych operacji do wykonania obliczeń i znalezienia rozwiązania.

Dzięki tym procesom komputer opracował różnego rodzaju urządzenia, które zaczęły ułatwiać zadania ludzkości we wszystkich rodzajach działań.

Chociaż jego obszar zastosowania nie ma ścisłych ograniczeń, jest on stosowany głównie w procesach przemysłowych, zarządzaniu przedsiębiorstwem, przechowywaniu informacji, kontroli procesów, komunikacji, transporcie, medycynie i edukacji..

Pokolenia

W informatyce i informatyce możemy mówić o pięciu pokoleniach procesorów, które naznaczyły historię nowożytną od jej powstania w 1940 r. Do chwili obecnej..

Pierwsza generacja

Pierwsza generacja miała swój rozwój między 1940 a 1952 rokiem, kiedy zbudowano komputery i sterowano nimi zaworami. Jego ewolucja i użyteczność były głównie w środowisku naukowo-wojskowym.

Urządzenia te miały obwody mechaniczne, których wartości zostały zmodyfikowane w celu zaprogramowania zgodnie z niezbędnymi celami.

Druga generacja

Druga generacja została opracowana między 1952 a 1964 rokiem, z pojawieniem się tranzystorów, które zastąpiły stare zawory. Tak powstały urządzenia komercyjne, które cieszyły się wcześniejszym programowaniem.

Innym ważnym faktem tego etapu jest pojawienie się pierwszych kodów i języków programowania, Cobol i Fortran. Po tych latach następują nowe.

Trzecia generacja

Trzecia generacja miała okres rozwoju nieco krótszy niż jej poprzednicy, został przedłużony między 1964 a 1971 rokiem, kiedy pojawiły się układy scalone.

Redukcja kosztów produkcji urządzeń, zwiększenie pojemności i zmniejszenie rozmiaru fizycznego oznaczały ten etap.

Ponadto dzięki rozwojowi języków programowania, które zyskały na specyficzności i uzdolnieniach, pierwsze programy użytkowe zaczęły rozkwitać.

Czwarta generacja

Czwarta generacja była produkowana od 1971 r. I trwała jedną dekadę, do 1981 r., Z elementami elektronicznymi jako głównymi bohaterami ewolucji.

W ten sposób pierwsze mikroprocesory zaczęły pojawiać się w świecie komputerowym, który zawierał wszystkie podstawowe elementy starych komputerów w jednym układzie scalonym.

Piąta generacja

Wreszcie piąta generacja rozpoczęła się w 1981 r. I rozciąga się na teraźniejszość, w której technologia atakuje wszystkie aspekty współczesnych społeczeństw.

Głównym rozwojem tej ewolucyjnej fazy informatyki były komputery osobiste (PC), które wkrótce zajęły szeroką grupę powiązanych technologii, które dziś rządzą światem.

Referencje

  1. PoinformujAttyka, informacje i komunikacja, Dokumentacja społeczna: Journal of Social Studies and Applied Technology ”, 1999.
  2. Leczenie (automatyczne) informacji, Diego Dikygs, strona internetowa Notions of Computing, 2011.
  3. Historia obliczeńn, Patricio Villalva.
  4. Magazyn Horizonte Inform MagazineaPolityka edukacyjna, Buenos Aires, 1999.