infa.doc

(216 KB) Pobierz
Geneza zastosowań komputerów

 

 

Geneza zastosowań komputerów

 

 

1.     Pojęcie i przedmiot informatyki                         

2.     Podstawowe definicje

3.     Podstawowe zadania współczesnej strategii informacji

4.     Kierunki zastosowań informatyki

 

 

Przedmiotem informatyki jest całokształt problematyki związanej ze zbieraniem, przechowywaniem, przekształcaniem, wyszukiwaniem, przesyłaniem i udostępnianiem danych, czyli ogólnie przetwarzaniem danych, w celu zapewnienia sprawnego i celowego działania określonego systemu.

 

Nazwa ,,informatyka’’ powstała w wyniku skojarzenia dwóch pojęć:

INFORmacja  +  autoMATYKA

 

DANE- to każde dowolne przedstawienie faktów, liczb, pojęć w sformalizowanej postaci, umożliwiające przekazywanie i dokonywanie na nich różnorodnych czynności przetwarzania. Dane to surowe fakty, znaki zapisane na jakimś medium. Narzuca się formalizm zapisu.

 

INFORMACJE (teoria ilościowa)- stworzona przez Shannona; zwraca się uwagę na wpływ wielkości informacji na stopień określoności lub nieokreśloności obiektu. Podstawowymi kategoriami tej teorii są entropia i prawdopodobieństwo.

 

INFORMACJE (teoria jakościowa)- bada się własności informacji oraz jej znaczenia w aspekcie użytkowym. W tym ujęciu przyjmuje się, że informacja oznacza znaczenie, treści, jakie przy zastosowaniu odpowiedniej konwencji przyporządkowuje się danym.

 

WIEDZA- wykracza poza informacje, gdyż powoduje zdolność do rozwiązywania problemów, inteligentnego zachowania się i działania.

 

SYSTEM INFORMACYJNY I INFORMATYCZNY- specyficzny układ nerwowy organizacji, łączący w jedną całość elementy systemu zarządzania. Jest to wielopoziomowa struktura, która pozwala użytkownikom na transformowanie określonych informacji wejściowych na pożądane informacje wyjściowe za pomocą odpowiednich procedur z modeli (inaczej: jest to zbiór strumieni informacyjnych opisanych na strukturze organizacyjnej przedsiębiorstwa, tzn. na strukturze procesów sfery realnej i sfery procesów zarządzania).

 

 

 

Formalny opis sytemu informacyjnego- jest to zbiór następujących elementów:

SI={P, I, T , O, M, R}

 

SI- system informacyjny

P- zbiór podmiotów, które użytkują system

I-  zasoby informacyjne

T- zbiór narzędzi technicznych stosowanych w procesie przetwarzania danych

O- zbiór rozwiązań systemowych stosowanych w danej organizacji

M- zbiór metainformacji (opis zasobów informacyjnych)

R- relacje pomiędzy poszczególnymi zbiorami

 

SYSTEM INFORMATYCZNY- jest to wyodrębniona część systemu informacyjnego, która z punktu widzenia przyjętych celów została skomputeryzowana.

 

Celami strategii przedsiębiorstwa jest zapewnienie rozwoju. Proces formułowania strategii przedsiębiorstwa wyraża się w wizjach perspektywicznych oraz różnych strategiach funkcjonalnych: marketingowej, finansowej, logistycznej, informacyjnej.

Strategia informacyjna obejmuje strategię systemu informacyjnego i strategię technologii informacyjnej (nazywana też strategią informatyczną).

Strategia systemu informacyjnego powinna zawierać szczegółowy problem określający co należy zrobić z technologią informacyjną.

Strategia technologii informacyjnej powinna dostarczać odpowiedzi jak należy wykorzystywać technologie informacyjne np. w przedsiębiorstwie.

 

Zakres zainteresowań informatyki obejmuje:

• sprzęt komputerowy- hardware (jego parametry techniczne, eksploatacyjne oraz dane dotyczące obsługi, konserwacji itp.)

• oprogramowanie komputerowe- software (systemy operacyjne, języki programowania, oprogramowanie użytkowe itp.)

• konstrukcje i eksploatację urządzeń do automatycznego przekazywania danych na odległość (sieci komputerowe, sieci telekomunikacyjne)

• projektowanie i wdrażanie systemów informatycznych na potrzeby określonych jednostek (np. przedsiębiorstw)

 

 

PROCESY PRZETWARZANIA DANYCH

 

ZBIERANIE DANYCH- to grupa czynności mająca na celu pomiar i rejestrowanie danych. Polega to najczęściej na obserwacji obiektu, przeprowadzeniu ankiety, wywiadu, dyskusji lub alternatywnym pozyskiwaniu danych (techniki zbierania danych). Jakość zbieranych danych mierzona jest na podstawie trzech charakterystyk:

-          przydatność dla użytkownika

-          aktualność

-          dokładność

 

PRZECHOWYWANIE DANYCH- polega na archiwizowaniu danych na maszynowych nośnikach, np. dyskach, dyskietkach lub w pamięci komputera, celem ich ponownego wykorzystania.

Dane musza być przechowywane w sposób bezpieczny, a dotarcie do nich powinno być łatwe i szybkie.

 

PRZEKSZTAŁCANIE DANYCH- obejmuje szereg różnorodnych czynności wykonywanych na danych. Są to w szczególności obliczenia arytmetyczne i logiczne, ale także sortowanie, filtrowanie danych.

 

UDOSTĘPNIANIE I PRZESYLANIE DANYCH- to grupa operacji mających na celu udostępnienie użytkownikowi lub innemu systemowi przetworzonych lub częściowo przetworzonych danych. Te urządzenia to np. monitor, drukarka, sieć komputerowa, modemy, urządzenia satelitarne itp.

 

INTERPRETOWANIE DANYCH- oznacza właściwy i przyjazny sposób prezentacji danych tak, aby ułatwił on odbiorcy zrozumienie ich sensu i znaczenia. Najczęściej spotykane formy interpretowania danych to: tablice, wykresy, komentarze dźwiękowe, sygnały dźwiękowe, slajdy, animacja, video.

 

 

KIERUNKI ZASTOSOWAŃ INFORMATYKI:

1.     Obliczenia naukowe i inżynierskie

2.     Masowe przetwarzanie danych (ekonomicznych)

3.     Symulacja i modelowanie

4.     Sterowanie procesami

5.     Inne (poligrafia, edukacja, biuro, rozrywka)

 

Ad 1.  Obliczenia numeryczne stanowią klasyczny i najstarszy kierunek zastosowań               komputerów. Specyficzne cechy tego typu zastosowań to:

1)     skomplikowane obliczenia, algorytmy;

2)     liczba danych wejściowych w tego typu zastosowaniach (i wyjściowych) jest niewielka;

3)     stosunkowo niewielkie wymagania odnośnie urządzeń zewnętrznych;

4)     sprawne i wydajne translatory różnych języków programowania.

 

Ad 2.  Cechami zastosowań w masowym przetwarzaniu danych są:

1)     operowanie na bardzo dużych zbiorach i bazach danych;

2)     posługiwanie się raczej nieskomplikowanymi algorytmami przetwarzania danych;

3)     stosowanie rozbudowanych, efektywnych systemów kontroli;

4)     potrzeba tworzenia czytelnych i estetycznych wydruków komputerowych;

5)     duże wymagania odnośnie urządzeń peryferyjnych i przesyłania danych;

6)     konieczność stosowania różnorodnych programów użytkowych, tj. arkusze kalkulacyjne, bazy danych, edytory tekstowe, programy multimedialne itd.

 

Ad 3.  Programy komputerowe mogą służyć do modulowania i symulowania różnych obiektów i zdarzeń. Komputerowe modele symulacji mogą służyć trzem celom:

 

              1) prognostycznym- za pomocą modelu bada się co zdarzy się w przyszłości i w

               oparciu o tę wiedzę modyfikuje się podejmowane działania;

              2) diagnostycznym- model pomaga znaleźć przyczynę obserwowanych zjawisk                                       

                lub dokładniej i taniej prześledzić ich przebieg;

              3) dydaktycznym- model pozwala tanio i bezpiecznie zdobyć doświadczenie    

               wymagane przy wykonywaniu wielu prac.

 

Ad 4.  Sterowanie daje całkowicie inne zastosowania, które powodują szereg uwarunkowań:

              1) wymagają specjalnych urządzeń do sprzężenia komputera ze sterowanym   

               procesem (np. czujniki);

              2) rola komputera sprowadza się do gromadzenia i raportowania danych;

              3) konieczność pracy w tzw. trybie rzeczywistym- komputer w obliczeniach

               musi uwzględniać czynnik czasu i wysyłać sygnały sterujące dokładnie w

               tym momencie, kiedy są potrzebne.

 

 

Generacje komputerów

 

 

Kryteria decydujące o zaliczeniu komputera do określonej generacji to:

              • technika budowy komputera;

              • struktura komputera- architektura (sprzęt + oprogramowanie);

              • możliwość użytkowania.

 

RODZAJE GENERACJI:

GENERACJA 0­­ technika przekaźnikowa, komputer MARK I, praca w systemie

                              dziesiętnym;

 

GENERACJA 1 – technika lampowa, komputer ENIAC, serie maszyn- dane do                  

                              komputera wprowadza się z taśm, kart perforowanych lub       

                              dalekopisów, realizowały jeden program napisany w języku

                              wewnętrznym (kod 0,1 ), nie posiadały systemu operacyjnego,       

                              głównie do obliczeń naukowo-technicznych, duża awaryjność.

 

GENERACJA 2 – tranzystory pojawiły się pod koniec lat 50, w Polsce- XYZ, ZAM2

·         pojawienie się pamięci zewnętrznych (dyski magnetyczne, taśmy magnetyczne, bębny)

·         wprowadzenie wieloprogramowości komputerów

·         komputery wyposażone w system operacyjny

·         wprowadzenie języków symbolicznych (języki pisane kodem 0, 1zostały zastąpione symbolem)

·         zwiększenie szybkości przetwarzania do 100 tysięcy operacji na sekundę

 

 

GENERACJA 3 – układy scalone: SSI- mała skala integracji, MSI- średnia skala  

                               Integracji, polski produkt- ODRA 1300.

·         wieloprogramowość

·         wieloprocesowość

·         rozpowszechnienie pamięci dyskowych

·         stosunkowo ,,bogaty’’ zestaw oprogramowania systemowego

·         możliwość pisania programów w językach wyższego rzędu (symbole zastępuje się komendami w języku angielskim)

·         tworzenie sieci komputerowych

·         rozwój urządzeń zewnętrznych (peryferyjnych- do wprowadzania i wyprowadzania danych)

·         szybkość wykonywania operacji wzrasta do 10 milionów działań na sekundę.

 

GENERACJA 4 – układy scalone VLSI- bardzo duża skala integracji; ULSI (ultra);

                              technika mikroprocesorowa, różnorodne oprogramowanie        

                              użytkowe, początek lat 80

 

GENERACJA 4 PLUS – superkomputery o bardzo dużej mocy obliczeniowej:      

                                         japoński NEC, amerykański CRAY

 

GENERACJA 5 /i dalsze/ - technika sztucznej inteligencji, zmiany w architekturze

                                             systemu

·         możliwość posługiwania się językiem naturalnym

·         umiejętność wnioskowania i uczenia się przez maszynę poprzez wykorzystanie sieci neuronowych

·         automatyczne pozyskiwanie wiedzy

·         budowa komputerów oparta n trójwymiarowej konfiguracji struktur białkowych.

 

 

 

 

Istota modelowania danych w komputerze

 

Świat człowieka jest złożony i zrozumiały dzięki tworzeniu uproszczonych odpowiedników (modeli). Model to konstrukcja teoretyczna odzwierciedlająca wybrany fragment rzeczywistości, pozwalający na lepsze zrozumienie jego charakteru. Model w mniej lub bardziej adekwatny sposób (w zależności os wiedzy i doświadczenia badacza) odzwierciedla strukturę postrzeganego świata. Modelowanie to natomiast proces budowy i wykorzystania modelu. Konstruowanie modelu prawie nigdy nie jest procesem prostym i natychmiastowym tzn. przebiega zwykle w kilku etapach (analiza od ogółu do szczegółu- najpierw jest model opisowy, dopiero potem powstaje model analityczny).

Doniosłą rolę badania spełniają modele abstrakcyjne reprezentujące zjawiska za pomocą języka naturalnego, symboli matematycznych, wykresów itp.

Można do nich zaliczyć:

·         modele werbalne

·         modele matematyczne

·         modele geometryczne

Modele matematyczne i geometryczne tworzą podstawę do modeli komputerowych.

 

WEWNĘTRZNA PREZENTACJA DANYCH W KOMPUTERZE

Komputery budowane są w oparciu o elementy elektroniczne, w których można wyróżnić dwa stany:

       1) przepływ prądu lub jego brak

       2) namagnesowanie pola w jednym kierunku lub przeciwnym

To zdecydowało o wyborze przedstawiania danych w komputerze za pomocą dwóch wyróżnionych stanów: 0-1 (umownie określanych jako bity). Alfabet to zazwyczaj:

26 liter, 10 cyfr, 20 znaków specjalnych (łącznie 56 znaków). Każdy znak jest reprezentowany przez ciąg symboli binarnych.

Wyznaczając N:                 2N ≥ 56

Uzyskujemy liczbę równą 6 bitom- jako najmniejszą długość ciągu, przy którym można jednoznacznie przedstawić 56 znaków (ten sposób kodowania stosowano na IBM 1401 i IBM 7040).

Wkrótce zaczęto stosować kod 8- bitowy, dający 256 kombinacji, bo  28 = 256. Jednostkę o długości 8 bitów nazwano bajtem.

Rozwój informatyki (komputerów) wymagał ujednolicenia systemów kodowania informacji. Kod ASCII (opracowany przez Amerykański Instytut Normalizacji) to system zapisu w pamięci komputera podstawowych znaków graficznych i poleceń sterujących.  1 znak = 1 bajt

Kod ASCII przyporządkowuje znakom do zapisu informacji liczby od 0 do 255.

1 – 31          → kody sterujące

32 – 126      → litery, cyfry, znaki specjalne

127 – 255    → nietypowe znaki (np. Ą , Ł itp.), różne w różnych krajach

Ponieważ kod ASCII pozwala na zapisywanie cyfr, można nim zapisać również dowolną liczbę (sposób jednak mało efektywny). 

30.000 – do zakodowania tej liczby w ASCII potrzeba 5 bajtów, a w kodzie dwójkowym 2 bajty.

 

KODOWANIE W SYSTEMIE DWÓJKOWYM LICZB CAŁKOWITYCH

 

30.000

0

 

117

1

15.000

0

 

58

0

7.500

0

 

29

1

3.750

0

 

14

...
Zgłoś jeśli naruszono regulamin