Nowy_Dokument_programu_Microsoft_Word(1).doc

(88 KB) Pobierz

Stereokomparatory – budowa, zasada działania, warunki geometryczne.

STEREOKOMPARATOR

Budowa:

- wózki

- sztywne obudowy

- płaszcz fotogramów

- obiektywy nieruchomej części układu optycznego

- obiektywy ruchomej części układu optycznego

Zasada pomiaru współrzędnych tłowych:

Przed pomiarami należy sprawdzić prawidłowość działania i ustalić miejsca zerowe stereokomparatora:

1.       ustawienie znaczka pomiarowego na krzyżyku środka obrotu lewej tarczy ruchami x i y

2.       ruchem paralaksy podłużnej p. i poprzecznej q nastawić znaczek pomiarowy na krzyżyk znajdujący się w środku obrotu prawej tarczy

3.       sprawdzenie stereoskopowe ustawienia znaczka w płaszczyźnie krzyżyka

4.       ustawienie skrętu tarcz zgodnie z osiami wsp. X i Y.

W wyniku tych czynności otrzymujemy miejsca zerowe liczników poszczególnych ruchów.

Metodę punktowego opracowania zdjęć stosuje się do zagęszczenia punktów kontrolnych. Znając wartość x i y punktu p’ na lewym zdjęciu można na podstawie paralaksy podłużnej i poprzecznej wyznaczyć współrzędne tłowe punktu p. na zdjęciu prawym - to jest metoda punktowego opracowania zdjęć. Wykorzystuje się ją, gdy podstawą dalszych opracowań są same współrzędne punktów charakterystycznych.

 

STEKOMETR

Budowa:

- korpus, na którym znajdują się prowadnice

- wózek

- układ optyczny

- prowadnice walcowe

- wózki paralaktyczne

- nośniki zdjęć

Na stekometrze można mierzyć zdjęcia formatu 23x23 lub mniejsze

Zasięg ruchów wynosi:

dla x i y = 0-280mm

dla paralaks podłużnych = -10 do + 130mm

dla paralaks poprzecznych = +- 40mm

Odczytanie pomierzonych wielkości dokonuje się za pośrednictwem koordimetru, czyli urządzenia rejestrującego. Wyprowadzenie obrotów śrub pomiarowych koordimetru możliwe jest dzięki selsynom nadawczym. Zdjęcia oświetlane są od góry przez kondensatory optyczne i lustra, a obserwowane są od dołu w polu widzenia.

 

 

Definicja obrazu cyfrowego.

OBRAZ CYFROWY – jest to uporządkowany zbiór pikseli w postaci macierzy. Cechą pikseli jest poziom szarości w przedziale 0 - 255 dla obrazu biało - czarnego (0 - czarny, 255 - biały). Człowiek rozróżnia 32 - 40 poziomów szarości. Podstawowym modelem kolorowego obrazu jest model RGB (red, green, blue). Każdy piksel obrazu modelu RGB jest wypadkową zniesienia tych trzech barw. Natężenie tych barw mierzy się podobnie jak w przypadku obrazu czarno - białego - poziomami czerwoności, zieloności, niebieskości. Jakość obrazu cyfrowego zależy od ilości pikseli tworzących ten obraz.

 

Wielkość piksela wiąże się z rozdzielczością skanowania

-zdolność rozdzielcza obiektywu - jest to cecha obiektywu związana z możliwością rozróżnienia bardzo małych obiektów na zdjęciu. Im mniejsze obiekty widzimy, tym większa rozdzielczość. Najłatwiej określić przez obserwacje linii biało - czarnej. Zdolność różni się na krawędziach i w centrum.

-rozdzielczość emulsji fotograficznej - zależy od jej jakości i wynosi kilkadziesiąt linii podwójnych na milimetr.

-zdolność rozdzielcza zdjęcia

-rozdzielczość skanowania - dla takiego zdjęcia nie warto skanować z mniejszą rozdzielczością niż 20 mm.

R = XxY

R - rozdzielczość

X - ilość pikseli na osi poziomej

Y - ilość pikseli na osi pionowej

Geometryczna rozdzielczość układu negatyw+obiektyw = 3880 dpi, przy czym piksel ma wielkość 7 mm.

Rozdzielczość podajemy w dpi - liczba punktów na cal.

Piksel mierzymy z dokładnością do 2 mm.

Proces powstawania obrazu cyfrowego - dwie metody

I

- badany teren jest fotografowany tradycyjna kamerą lotniczą (rozdzielczość zdjęcia analogowego 3880dpi)

- zdjęcie analogowe jest skanowane skanerem o rozdzielczości 1800 dpi (automatyczna utrata 2080 dpi informacji)

- obraz cyfrowy dla opracowań fotogrametrycznych posiada rozdzielczość 1300 dpi i zapisywany jest w postaci pliku z rozszerzeniem .bmp, .tif, .gif

II

-Zdjęcia terenu wykonywane są kamerą cyfrową o rozdzielczości 3880 dpi. Powstaje obraz cyfrowy o takiej samej rozdzielczości.

Metoda II jest szybsza i tańsza, obraz ma dużo większą rozdzielczość, nie ma potrzeby skanowania

 

Tworzenie obrazu cyfrowego – etap dyskretyzacji i kwantyzacji.

Dyskretyzacja – przedstawienie obrazu w określonej liczbie pikseli. Mówi o tym w ilu pikselach został zapisany dany obraz

Kwantyzacja – przypisanie odpowiednim pikselom, których położenie jest już zidentyfikowane w matrycy odpowiednich poziomów szarości. Obraz powinien być kwantyzowany przy jak największej liczbie k

Podstawowe modele barw.

CMYK – Cyjan, Magenta, Yellow, Karmin

RGB – Red, Green, Blue

Skanery fotogrametryczne i skanowanie zdjęć.

Podział skanerów

Ø       ze względu na zakres rejestrowanego promieniowania

- termalne (lub działające w podczerwieni) skanery liniowe – rejon długiej podczerwieni

- wielospektralne (MSS – Multispectral Scanner)

Ø       ze względu na sposoby działania

- optyczno-mechaniczne

- elektrooptyczny

Skanery

Ø       optyczno – mechaniczne – dokonują rejestracji terenu linią po linii- każdy piksel jest kolejno rejestrowany

Ø       jednokanałowe – posiada jeden detektor

Ø       wielokanałowe - posiada 2 lub więcej detektorów, rejestruje odbite promieniowanie od elementarnych powierzchni dla różnych zakresów, zależnych od czułości spektralnej użytych detektorów

Ø       elektrooptyczne – równoczesna rejestracja wszystkich pikseli należących do jednej linii; w płaszczyźnie obrazowej obiektywu, zamiast materiału światłoczułego w kamerze zainstalowane są wysokorozdzielcze detektory półprzewodnikowe.

Ø       elektrooptyczne powierzchniowe CCD - zamiast linijki detektorów jest dwuwymiarowa matryca obrazu CCD zawierająca N linijek czyli N*N detektorów

W wyniku skanowania otrzymuje się obraz składający się z wierszy i kolumn w 1 kanale i w 3 kanałach dla zdjęć barwnych.

 

Układ współrzędnych pikselowych.

-standardowo może być zdefiniowany tak, że początek układu współrzędnych jest w lewym górnym rogu matrycy

-jest prostokątny to trzeba uwzględnić jego wymiar przy przejściu od układu współrzędnych pikselowych na układ tłowy

Przejście z jednego układu do drugiego

X’ = (x’-x’p )*psx

Z układu pikselowego do tłowego

Y’ = (y’p – y’)*psy

Psx – wymiar piksela wzdłuż osi odciętych

Cechy geometryczne, radiometryczne i spektralne obrazów cyfrowych.

Cechy obrazu cyfrowego

Geometryczne – rozdzielczośc powierzchniowa – wymiar piksela w terenie

-          określają geometrię obrazu

-          wymiar obrazu

-          liczba pikseli na cal

-          wymiar piksela

-          układ współrzędnych piksela w lewym górnym rogu

Radiometryczne – rozdzielczość radiometryczna – opisuje zasięg oraz dająca się wyróżnić liczbę określającą dyskretne wartości jasności

-          6 bit, 8 bitowy, 24 bit, 32 bit – czyli ilość bitów potrzebnych do zapisania obrazu cyfrowego

-          jasność obrazu cyfrowego

-          kontrastowość obrazu cyfrowego

Spektralne – rejestracja może dotyczyć określanego wspólnego zakresu fal elektromagnetycznych

 

Analiza obrazu cyfrowego – histogram obrazu.

Histogram – rozkład poziomów szarości, wykres ilustrujący występujące w obrazie zakresy tonalne. Każdemu pikselowi obrazu cyfrowego przyporządkowany jest określony poziom szarości lub wartość jasności wyrażony liczbami całkowitymi z przedziału 0 – 255. Na podstawie tycj liczb odpowiadających zbiorowi pikseli całego obrazu można sporządzić histogram tego obrazu prezentujący liczebność pikseli o określonej jasności (lub szarości) w postaci wykresu. Rozkład szarości wyznacza się za pomocą wzoru ni / n, gdzie ni – liczba pikseli w i-tym przedziale szarości; n – liczba wszystkich pikseli.

-obraz mało kontrastowy

-obraz kontrastowy

-obraz mało jasny

-obraz bardzo jasny

Histogram można zmienić:

-przez zastosowanie procesu wyrównania – histogram sprawdzamy przy wyrównaniu do stanu gdy częstotliwość występowania pikseli o podobnym poziomie szarości jest jednakowa. Zmienne są wartości poziomu szarości przypisane każdemu pikselowi

-normalizacja histogramu – histogram jest sprawdzany do krzywej Gaussa – rozkład częstotliwości odpowiada krzywej Gaussa.

Metody poprawienia jakości obrazu cyfrowego.

Wstępna obróbka obrazu cyfrowego

1.Odszumianie – w wyniku działania skanera jasność pikseli może być inna od faktycznej. Zjawisko to nazywamy szumem. Szum możemy wyeliminować przez:

-wielokrotne skanowanie obrazu i wyliczenie średniej arytmetycznej jasności piksela

-filtrację obrazu lub zastąpienie jasności piksela jasnością wyliczoną metodami matematycznymi na podstawie pikseli z jego otoczenia. Metodę tą wykorzystuje się gdy nie ma możliwości wielokrotnego skanowania lub przy skanowaniu obrazów zmiennych w czasie.

2.Korekcja zniekształceń radiometrycznych – zniekształcenie radiometryczne obrazu jest nieprawidłowym odwzorowaniem piksela od faktycznej wartości jasności. Przyczynami tego są:

-niejednakowa czułość skanera dla całego pola widzenia

-błędy eksportu obrazu na ekran, papier fotograficzny lub na papier

Rodzaje korekcji zniekształceń: sumacyjne i iloczynowe. Celem przeprowadzenia korekcji zniekształceń radiometrycznych jest zapewnienie jednakowego odwzorowania jasności pikseli bez względu na to, w jakiej części obrazu się one znajdują. W korekcji sumacyjnej współczynniki korekcyjne odejmuje się od jasności pikseli, a przy korekcji iloczynowej obraz jasności mnoży się przez macierz współczynników korekcyjnych. Do wyznaczenia tej macierzy wykonuje się skanowanie standardowych obrazów: białego i czarnego. Przy analizie obrazów barwnych dla trzech składowych widmowych R, G, B wykorzystuje się standardowe obrazy. Najpierw robi się korekcję sumacyjną a potem iloczynową.

3.Zwiększenie kontrastu – w obrazach, w których zakres jasności nie zajmuje całej skali, można przez odpowiednią transformację zakresu określonego na podstawie uzyskanego histogramu zwiększyc kontrast. Liczba pikseli przed transformacją musi się równać liczbie po.

4.Wprowadzenie „sztucznych barw” – wzrok człowieka lepiej rozpoznaje barwę niż poziomy szarości, dlatego zastąpienie poziomu szarości różnymi barwami może ułatwić dostrzeganie oraz rozróżnianie szczegółów w obrazie. Barwy te nie są odpowiednie barwom w naturze i dlatego nazywa się je barwami sztucznymi. Metodę tę stosuje się przy wizualizacji obrazów wykonanych w niewidzialnych zakresach widmowych.

5.Filtrowanie

Podstawowe typy filtrów cyfrowych i ich zastosowanie.

Filtrem – nazywa się algorytm do wzmacniania obrazu pochodzącego z rejestracji w danym kanale spektralnym. Jest to przekształcenie obrazu piksel po pikselu zależnie od jasności przekształcanego piksela, jak również od jasności pikseli otaczających. Filtrowanie obrazów stosowane jest dla geometrycznego uwydatnienia wybranych elementów tego obrazu takich jak: brzegi, krawędzie, linie, granice, a także eliminację szumów. Filtracja  - wykorzystuje technikę tzw. ”ruchomego oka” lub maskę. Jest to obszar obejmujący kilka do kilkudziesięciu pikseli w zależności od rodzaju filtru. Schemat obliczeń: obliczamy jasność środkowego piksela na podstawie algorytmu wybranego filtra i wartości jasności pikseli sąsiednich, nową wartość wprowadzamy na miejsce pierwotnej wartości jasności środkowego piksela, następnie przesuwamy oko na jeden piksel wzdłuż wiersza i powtarzamy obliczenia do końca danego wiersza, dalej przesuwa się maskę o jeden wiersz niżej i powtarzamy operację.

Przyczyny pogorszenia jakości obrazu:

-zakłócenia w transmisji danych cyfrowych pracy sensora

-zła ostrość

-dodatkowe szumy

-błąd sensora

Metody filtracji:

-przestrzenne i częstotliwościowe

-liniowe i nieliniowe

W zależności od wybranego algorytmu filtracji, filtry dzielimy na:

-filtry dolnoprzepustowe (lub filtry wysokich częstotliwości przestrzennych) – do eliminacji szumu na skutek digitalizacji, defektu poziomu szarości na skutek błędu szarości kamery - wygładzenie szczegółów obrazu, zmniejsza kontrast (zmiana histogramu obrazu), wygaszanie wysokich częstotliwości

-filtr środkowo przepustowy – stosowany do wyodrębniania określonych szczegółów (najrzadziej stosowany)

-filtr górnoprzepustowy – uwydatnia on szczegóły, wzmacnia krawędzie i wyodrębnia ostre zmiany intensywności w obrazie, tłumi niskie częstotliwości

Przykłady filtrów: wygładzający, gradientowy, Laplace’a  (pozwala na wydzielenie krawędzi)

Metody interpolacji stosowane w procesie resampling’u obrazu cyfrowego.

-algorytmy zmieniające poziom szarości danego piksela w odpowiedni dla jego otoczenia ( interpolacja powoduje wygładzenie obrazu – przechodzimy ze strony pikselowej do półtonowej)

-metoda najbliższego sąsiada – zaokrąglana jest współrzędna danego piksela do najbliższego pełnego piksela (piksel przyjmuje jasność od najbliższego sąsiada)

-bilinearna – realizowane jest sąsiedztwo 4 najbliższych pikseli. Nowy piksel ma nowy poziom szarości wynikający z 4 sąsiadujących pikseli (nie jest to średnia arytmetyczna)

-bikubiczna – piksel otrzymuje nowy poziom szarości wynikający z sąsiednich 16 pikseli (4x4)

Piramidy obrazów cyfrowych – definicja, zastosowanie, metody tworzenia.

Piramida jednokrotna – obraz pierwotny zdegradowany (została zmniejszona dla jego rozdzielczości)

Piramida obrazów – stopniowo zmniejsza się rozdzielczość obrazu pierwotnego, by uzyskać szybkość wyświetlania i pozycjonowania obrazów. Schemat

32

64

128

256

-proces tworzenia piramidy obrazu – hierarchiczna wielopoziomowa korelacja

-matching – dopasowanie obrazów

Metody tworzenia obrazów piramidalnych – służą do przyspieszania procesu pomiarowego i szybszego wyznaczania położenia obiektów:

-wysuwamy z obrazu pierwotnego co drugi wiersz i co druga kolumnę obrazu cyfrowego

-uśredniamy wartości sąsiednich wierszy i kolumn obrazu cyfrowego

-zastosowanie jednej z czterech interpolacji

-metody związane z wygładzaniem

Podstawy matching’a.

Formatu zapisu danych rastrowych.

Zasada działania cyfrowych ekranowych mono- i stereokomparatorów.

VSD – (videostereodigitizer) – cyfrowy autograf analityczny może pracować jako monokomparator i jako stereokomparator. Pomiar odbywa się na ekranie monitora za pomoca znaczka pomiarowego (sterowanego myszą)

POPOS – dokładność porównywalna z dokładnością stereokomparatorów precyzyjnych rzędu ok. 0,1-0,3 piksela, monitor+odpowiednie oprogramowanie

Pomiar współrzędnych pikselowych – manualny, semiautomatyczny i automatyczny.

Transformacja współrzędnych pikselowych do układu tłowego zdjęcia.

 

Warunek kolinearności.

 

Przekształcenie rzutowe płaszczyzny zdjęcia na płaszczyznę terenu.

 

Warunek komplanarności.

 

Orientacja wzajemna – układy współrzędnych dla pary zdjęć.

ORIENTACJA WZAJEMNA

Polega na takim umieszczeniu dwu zdjęć stereogramu, jakie miały one względem siebie w momencie ekspozycji. Odległość między środkami rzutów przy projekcji zostaje zmniejszona co wpływa na skalę. Na autografie tak manipulujemy ruchami kątowymi i liniowymi kamer, aby odtworzyć wzajemne położenie zdjęć w przestrzeni.

Przeprowadzenie orientacji wzajemnej wymagane jest w tym przypadku w procesie opracowywania zdjęć, kiedy nieznane  są elementy orientacji zewnętrznej. Do wykonania orientacji wzajemnej niepotrzebna jest znajomość żadnych punktów, których wsp. Zostały wyznaczone w terenie

Dokładność orientacji - wartość szczątkowa paralaksy poprzecznej, która nie powinna być większa od połowy średnicy znaczka pomiarowego.

 

Analityczne ścisłe wyznaczenie elementów orientacji wzajemnej – met Schut’a.

Metodę tę realizuje się gdy układ jest zdefiniowny tu umownie B x r’*r” = 0 pozornym lewym zdjęciem. Początkowo punkty przestrzeni przedmiotowej powinny znajdować się w płaszczyznach rdzennych (komplanarność). Na początku zakładamy tu dla lewego zdjęcia, że j, w, c = 0, poprawki dla współrzędnych tłowych x’, x” = 0, natomiast poprawki y’, y” różnią się znakami, a więc redukują się. Niewiadomymi w równaniu są: bx, bz i współrzędne x”, y”, z” będące współrzędnymi promienia rzucającego r”, określonymi pomierzonymi na zdjęciu wsp. x”, y” oraz ck, w”, j”, c”. Dlatego poszukiwanymi niewiadomymi są: bx, bz, w”, j”, c”.

Kolejność obliczeń (musimy mieć min.5 punktów)

1.Ze znanych lub przyjętych dla pierszego zdjęcia obrotów tworzymy macierz obrotów A i określamy następnie wielkości xi’, yi’, zi’ wsp. wektora r’

2.Wybieramy wartości przyblizone dla drugiego zdjęcia by, bz , w”, j”, c

3.Obliczamy wartości x”, y”, z” za pomocą wartości przybliżonych (w punkcie 2)

4.Obliczamy niewiadome dc, dj, dw, dbx, dby przez rozwiązanie min 5 równań

5.Obliczenie pierwszej poprawionej macierzy A posługując się elementami obliczonymi w punkcie 4

6.Obliczenie macierzy A = 2A * 1A. Elementy tej macierzy posłużą do nowych obliczeń jak w punkcie 3

7.Powtarzamy obliczenia od punktu 3 do 6 dopóki dc, dj, dw, dbx, dby nie staną się dostatecznie małe aby je pominąć

Pięć punktów musi być rozmieszczone jak przy punktach standardowych, ze względu na powierzchnie krytyczne. Gdy mamy więcej niż 5 punktów niewiadome (punkt 4) obliczamy z wyrównaniem. Równania błędów rozwiązujemy metodą najmniejszych kwadratów.

Numeryczna orientacja bezwzględna modelu – metoda przestrzennej transformacji (konforemna, afiniczna) przez podobieństwo.

ORIENTACJA BEZWZGLĘDNA

Elementy orientacji bezwzględnej: przesunięcia D x, D y, D z, kąt obrotu względem układu geodezyjnego, oraz współczynnik zmiany skali mx, my, mz

Orientacja bezwzględna polega na doprowadzeniu modelu do założonej skali i poziomu, gdyż model uzyskany w wyniku orientacji wzajemnej nie ma skali i ma przypadkową orientację w przestrzeni. Poziomowanie modelu polega na doprowadzeniu do równoległości płaszczyznę XOY autografu do pł. XGOYG układu odniesienia. Do skalowania modelu potrzebne są dwa punkty o znanych współrzędnych geodezyjnych. Małe nachylenie pozwala na porównanie rzutów poziomych odcinka. Po zmierzeniu współrzędnych fotogrametrycznych obu końców odcinka, oblicza się współczynnik skali:

 

 

gdzie:

l - długość odcinka terenowego wyrażona w odpowiedniej skali

l’ = długość odcinka w autografie

mmod - mianownik skali budowanego modelu

D...

Zgłoś jeśli naruszono regulamin