Projektowanie nowych białek o zadanych właściwościach katalitycznych.docx

(119 KB) Pobierz

Projektowanie nowych białek o zadanych właściwościach katalitycznych

Abstract

Inżynieria białek jest potężnym narzędziem, za pomocą którego można modelować strukturalne, katalityczne i wiążące właściwości naturalnych białek, jak również pozwalającym projektować od podstaw (de novo) sztuczne, naturalnie nie występujące białka. Podmiana aminokwasów w białku ogranicza się zwykle do 20 występujących naturalnie, jednak powiększając tę liczbę o aminokwasy nie występujące w naturze można zwiększyć zakres i obszar działania metod inżynierii białek.

Do przebudowywania struktury enzymów wykorzystuje się m.in. ich strukturalną i sekwencyjną homologię, naśladuje naturalną ewolucję wybranego genu, modyfikuje metabolizm komórki w procesie inżynierii metabolizmu, a także korzysta z analogów stanu przejściowego oraz zdolności systemu immunologicznego do identyfikacji związków wykazujących podobieństwo z substratami do wytworzenia właściwości katalitycznych w przeciwciałach.

Rozwój chemii obliczeniowej, informatyki i komputerów stworzył nowe możliwości badań. Wykorzystując metody obliczeniowe, pośredniczące między eksperymentem a teorią w cyklu projektowania białek, można znacznie przyspieszyć i obniżyć koszty poszukiwania i tworzenia nowych biokatalizatorów.
Autor: Paweł Szarek

Dlaczego kataliza enzymatyczna?

Przemysł farmaceutyczny i chemiczny intensywnie poszukuje nowych metod syntez w chemii organicznej, które spełniałyby wciąż wzrastające wymogi związane z jakością i ochroną środowiska. Potrzebne są nowe procesy katalityczne pozwalające produkować wyłaniające się z badań molekularnych i biomedycznych nowe klasy związków do różnorodnych zastosowań. Katalizowane enzymatycznie transformacje chemiczne są obecnie szeroko rozpowszechnione ze względu na swój praktyczniejszy charakter w porównaniu do tradycyjnych, nie biologicznych metod syntezy organicznej oraz jako wygodne rozwiązania pewnych skomplikowanych syntez (np. wysoce selektywnych, „czystych” i in.).
Enzymy i ich właściwości
Wiele właściwości enzymów sprawia, że są one chętnie stosowane w przemyśle chemicznym. Większość enzymów prowadzi reakcje w temperaturze pokojowej, w neutralnym, wodnym środowisku i bez konieczności zabezpieczania grup funkcyjnych substratu, podczas gdy wielofunkcyjne związki stanowią poważne wyzwanie dla metod nie biologicznych.

W syntezie organicznej biokatalizatory mogą występować samodzielnie, w grupie z innymi enzymami, bądź ze składnikami nie biologicznymi. Szybkość reakcji (kcat/kuncat), przy zastosowaniu enzymów, może zostać zwiększona o 17 rzędów[3] dzięki wiązaniu substratów w odpowiednio ukształtowanym miejscu aktywnym (tworzonym przez geometrycznie ułożone łańcuchy boczne aminokwasów), którego dopasowanie może się zmieniać w wyniku różnych subtelnych oddziaływań. Enzymy są wysoko skutecznymi katalizatorami, o czym świadczą wysokie wartości stałych specyficzności (kcat/KM): 106 do 108 M-1sec-1[3]. Chiralna natura enzymów przejawia się w stereo- i regioselektywnych reakcjach, przyspieszanych od 105 do 108 razy [10]. Enancjoselektywność enzymów ma coraz większe znaczenie w produkcji chiralnych farmaceutyków, jednak z powodu wysokiej selektywności nie istnieją czasem odpowiednie, naturalne enzymy dla wielu różnych zastosowań przemysłowych, dlatego projektuje się enzymy o nowych właściwościach. Większość enzymów akceptuje nienaturalne substraty, a inżynieria genetyczna może w przyszłości zwiększyć ich stabilność, poszerzyć specyficzność substratową oraz zwiększyć aktywność. Zarówno naturalne jak i otrzymane metodami inżynierskimi enzymy mogą być produkowane w dużej skali, w organizmach dzięki wykorzystaniu technologii rekombinacji DNA.

W związku z wysoką selektywnością (mała ilość produktów ubocznych) i niskim wymaganiom energetycznym procesów enzymatycznych (są zdolne katalizować kłopotliwe przemiany chemiczne w stosunkowo łagodnych warunkach) biokatalizatory są wielce przyjazne dla środowiska oraz przemysłu.
Synteza katalizowana enzymatycznie – ważne parametry
Do tej pory zidentyfikowano ponad 3000 enzymów, a liczba ta może znacznie wzrosnąć w wyniku manipulacji genetycznych oraz modyfikacji białek[10]. Enzymy stosowane w syntezie organicznej oraz typy reakcji zostały przedstawione w tabeli poniżej. Na praktyczne zastosowanie reakcji enzymatycznych wpływa kilka parametrów, przede wszystkim: specyficzna aktywność (reprezentowana przez stałą szybkości reakcji kcat), specyficzność (kcat/Km) oraz stabilność enzymu[10]. Dodatkowo: inhibicja powodowana przez substrat lub produkt, zależna od strukturalnego powinowactwa tych związków do miejsca aktywnego enzymu.

http://www.kns.b2me.pl/images/chemia-24.jpg


Kierunki badań w syntezie enzymatycznej:
- Rozwijanie reakcji enzymatycznych przez modyfikację substratów
- Stosowanie rozpuszczalników organicznych oraz kosolwentów – w systemach jedno- i dwufazowych
- Pokonywanie inhibicji substratu i produktu
- Regeneracja kofaktorów: SAM, NAD(P), ATP, CoA, PAPS, cukrowe pochodne nukleotydów
- Modyfikacja aktywności enzymów i enzymy półsyntetyczne
- Immobilizacja i stabilizacja enzymów
- Stosowanie rekombinowanego DNA w wielkotonażowej produkcji enzymów
- Metageneza i ukierunkowana ewolucja w celu zmiany katalitycznych właściwości enzymów
- Poszukiwanie nowych enzymów oraz badanie enzymów z nowych gatunków
- Zwiększanie skali produkcji czystych odczynników i synteza farmaceutyków
- Systemy multienzymatyczne in vitro oraz in vivo
- Przeciwciała katalityczne

W wielu przypadkach substraty w procesach przemysłowych są związkami syntetycznymi i enzymy katalizujące specyficzną reakcję dla tych związków są nie znane. Interesujące są mechanizmy „ewolucji” beta–laktamaz, które powodują odporność mikroorganizmów na antybiotyki. Enzymy te bardzo szybko dostosowują się do unieszkodliwiania produkowanych związków z grupy penicylin, cefalosporyn, cefamycyn i.in.

Rozpuszczalnik stanowi rezerwuar substratu. Jego dobór zależy od właściwości biokatalizatora i substratu hydrofobowego. Ważne jest jednak przede wszystkim zachowanie aktywnej struktury cząsteczki enzymu co znacznie ogranicza wybór. Najczęściej enzym nie kontaktuje się bezpośrednio z rozpuszczalnikiem ( wyj. lipazy, które adsorbują się na powierzchni międzyfazowej), jednak faza wodna nasycona jest rozpuszczalnikiem. Wpływ rozpuszczalników organicznych na właściwości białka próbuje się usystematyzować za pomocą różnych parametrów charakteryzujących poszczególne rozpuszczalniki organiczne. Najczęściej stosuje się log P, który mówi o hydrofobowości rozpuszczalnika, im wyższa jego wartość tym większa stabilność enzymu (jednak istnieje sporo wyjątków). Kataliza w rozpuszczalnikach organicznych może zmienić specyficzność lub odwrócić kierunek reakcji. Inhibicja związana jest z powinowactwem reagentów do miejsca aktywnego enzymu, czyli tym samym zależy od odpowiednich stałych szybkości reakcji tworzenia kompleksu ES lub rozpadu EP (wiąże się również ze sprzężeniem zwrotnym). Kontrolowanie czynników powodujących tego typu procesy umożliwić powinno zoptymalizowanie i polepszenie wydajności wielu reakcji.

Wiele praktycznych reakcji enzymatycznych wymaga kofaktrów, których koszt nie pozwala na stosowanie ich w stechiometrycznych ilościach (bez regeneracji). Wymagana jest regeneracja zużytych kofaktorów, by proces był dostępny ekonomicznie i przemysłowo. Regeneracja umożliwia także doprowadzenie reakcji do końca, zapobiega akumulacji zużytego kofaktora i inhibicji, upraszcza prowadzenie reakcji i zwiększa enancjoselektywność. Kilka kofaktorów może być skutecznie regenerowanych np.: trifosforany nukleotytów jak ATP w reakcji przeniesienia grupy fosforowej, dinukleotyd nikotynoamidadeninowy i jego 3’-fosforanu (NAD, NADP) w reakcjach oxydoredukcji, acetylo-CoA w reakcji przeniesienia grupy acylowej, 3’-fosfoadenozyno-5’-fosfosulfonianu (PAPS) w reakcji tworzenia estrów sulfonowych i pochodnych cukrowych nukleotydów w reakcjach glikozylacji.

Ze względów procesowych istotne jest zagadnienie stabilności biokatalizatorów. Czynnikami wpływającymi na stabilność białek jest pH środowiska, temperatura, substancje towarzyszące (jony, białka balastowe, kofaktory), odpowiedni rozpuszczalnik, a także immobilizacja. Substancje takie jak: glicerol, glukoza, laktoza, galktoza, oligocukry, polimery rozpuszczalne w H2O – stabilizują białka podczas przechowywania.

Ważną gałęzią jest ciągle badanie właściwości znanych enzymów, oraz dostarczanie wiedzy o enzymach nowo odkrytych. Zwykle kształt nie pociąga za sobą określonej funkcji w odniesieniu do struktury białek. Zrozumienie zależności pomiędzy trójwymiarową strukturą białka i jego funkcją fizjologiczną wymaga dalszych badań. Przede wszystkim specyficzność substratowa i mechanizm katalizy na poziomie cząsteczkowym pozostaje, w większości przypadków, w sferze hipotetycznych dociekań, nawet jeśli została zbadana trójwymiarowa struktura enzymu, zdefiniowane reszty aminokwasów tworzące centrum aktywne, poznana kinetyka reakcji, a także kompleks enzym-substrat, czy stworzone zmodyfikowane formy enzymu.

Obszar działania w modelowaniu struktury i właściwości białek

·         Inżynieria metabolizmu - Metabolic engieering

·         Przeciwciała katalityczne - Catalytic antibodyes

·         Ekspozycja na powierzchni faga - Phage-capture

·         Projektowanie oparte na homologii - Homolgydriven design

·         Mutageneza - Mutagenesis

·         Selekcja i ukierunkowana ewolucja - Screen or direct evolution

·         Modelowanie molekularne - Molecular modeling

http://www.kns.b2me.pl/images/chemia-25.jpg

 

Rys. 1. Strategia otrzymywania aktywnych enzymów[10].


Inżynieria metabolizmu:

Postępy w genetyce molekularnej pozwalają na modyfikację metabolizmu komórki, zmianę jego kierunku lub stworzenie nowych szlaków biosyntezy. Ta młoda metoda biokatalizy została zastosowana do produkcji wielu pierwotnych i wtórnych metabolitów oraz ich analogów, włączając: zw. aromatyczne, polihydroksyalkohole alifatyczne, antybiotyki, poliketony i nierybosomalne peptydy[10].

Wyżej wspomniane narzędzie biologiczne, razem z tradycyjną selekcją biblioteki genów jest obecnie łatwo dostępne i stosowane w tworzeniu nowych enzymów na potrzeby syntezy chemicznej. Tworząc enzym dla danej reakcji (rys.1) można zacząć od enzymu, który ma zdolność katalizowania specyficznego typu reakcji, zoptymalizować warunki reakcji, a następnie poprawić katalizator w cyklu ukierunkowanej ewolucji i inżynierii białek[10]. W przypadku, gdy nie jest znany enzym dla pożądanej reakcji można zastosować metody nie biologiczne. Alternatywą może być kontynuowanie selekcji nowych enzymów i przeciwciał katalitycznych, jeśli reakcja jest dostatecznie znacząca.

Auksotroficzne szczepy E. coli mają zdolność włączania analogów aminokwasów w łańcuchy białek. Za pomocą prostej metody można uzyskać białka z wysoką wydajnością, a wprowadzenie analogów aminokwasów w wielu regionach może spowodować znaczne polepszenie właściwości białka pod względem stabilności termicznej i chemicznej[5].

Np. wykorzystano wszechstronność funkcjonalną grupy ketonowej pochodnej aminokwasu: p-ketofenyloalaniny, wprowadzonej do białka za pomocą zmodyfikowanej wersji syntetazy tRNA fenyloalaniny zaprojektowanej obliczeniowo. Grupa ketonowa może selektywnie wiązać się z pochodnymi hydrazyny, hydroxylaminy i tiosemikarbazyny w warunkach fizjologicznych[5].

Przeciwciała katalityczne, abzymy:

W 1969r. William Jencks zasugerował, że przeciwciała specyficzne wobec stanu przejściowego reakcji chemicznej powinny mieć dużą siłę katalityczną. Dwadzieścia lat później używając analogów stanu przejściowego jako immunogenów otrzymano przeciwciała katalityczne[15].

W metodzie otrzymywania przeciwciał katalitycznych (abzymów) korzysta się z analogów stanu przejściowego (transition–state analogues, TSA), aby zaprząc zdolności systemu immunologicznego, do identyfikacji obcych cząstek, i wytworzenia białek zawierających miejsca wykazujące powinowactwo do substratów, komplementarne do TSA i o pewnych właściwościach katalitycznych, tj. umożliwiające reagentom upodobnienie się do stanu przejściowego[3]. Metoda obejmuje syntezę TSA, immunizację, izolację przeciwciał monoklonalnych (via hibridomas) oraz selekcję katalitycznie aktywnych przeciwciał[3]. Technika ta pozwala otrzymać przeciwciała katalityczne katalizujące wiele różnorodnych reakcji (od hydrolizy estrów i amidów, przez tworzenie wiązań amidowych, transestryfikację, wywoływane światłem rozszczepienie i dimeryzację, do dekarboksylacji oraz utlenienia[15]), jednak skuteczność tych biokatalizatorów w porównaniu do naturalnych enzymów jest dość niska.

Przeciwciała katalityczne, które wykorzystują mechanizmy nukleofilowe i zostały wyłapane w wyniku reakcji immunizacyjnej są w znacznej przewadze skutecznymi katalizatorami. Częściej, niż TSA, stosuje się inhibitory w celu wywołania odpowiedzi immunologicznej. Przeciwciała, które tworzą stabilne, kowalencyjne połączenia z samobójczym inhibitorem są również skutecznie wyłapywane. Zdolność wyłapywania mocnych katalitycznych grup i miejsc aktywnych z wysoką specyficznością stanu przejściowego może teoretycznie dać bardziej wydajne katalizatory.

Techniki ekspozycji na powierzchni faga:

Również metoda ekspozycji na powierzchni faga służy obdarzaniu białek nowymi właściwościami katalitycznymi. Techniki zwane phage-capture[6], pozwalają na wychwycenie nowego lub ulepszonego enzymu, jak również przeciwciał katalitycznych[10]. Różne warianty tej metody dążą obecnie do uchwycenia stanu wiązania substratu[1]. Prowadzi to albo do otrzymania gotowego produktu albo reaktywnego produktu, który jest kowalencyjnie związany z fagiem.

Projektowanie oparte na homologii:

Do racjonalnego przebudowywania struktury enzymów wykorzystuje się strukturalną i sekwencyjną homologię białek, ściągając pożądane cechy jednego enzymu do drugiego. Wielka liczba opartych na homologii eksperymentów korzysta z inżynierii miejsc wiążących dla dopasowania różnych substratów oraz konstruowania nowych miejsc katalitycznie czynnych o odmiennych mechanizmach i funkcjach[3]. Racjonalne projektowanie skupia się głównie na zmianie fragmentów kontaktujących się z substratem[3]. Sprawność większości homologicznie projektowanych enzymów, jak dotąd okazała się niska w porównaniu z enzymami naturalnymi, jednakże zdarzały się wyjątki bardziej wydajnych. Wprowadzenie katalitycznej triady Sre–His–Asp do peptydylo–propyloizomerazy zaowocowało nadzwyczaj dużą specyficznością tej peptydazy[3]. Oparta na strukturalnym podobieństwie 4-chlorobenzylo-CoA dehalogenazy i krotonazy modyfikacja dwóch katalitycznie aktywnych centrów kwasowych jak również sześciu miejscowych centrów przeniosła aktywność krotonazy na dehalogenazę[3]. Obie z tych modyfikacji stworzyły znakomitą katalityczną maszynerię mogącą zacząć od polaryzacji grupy karbonylowej w substracie, a następnie z powodzeniem wykorzystać dodatkowe centra katalityczne do przeprowadzenia kolejnych reakcji.

Projektowanie oparte na homologii pozwoliło na lepsze zrozumienie mechanizmu specyficzności substratowej enzymów. Informacja ta razem z bardziej odpowiednimi i szczegółowymi modelami fizycznymi powinna mocno zaprocentować w przyszłym projektowaniu enzymów.

Mutageneza:

Klasyczne podejście genetyczne przewiduje wywołanie mutacji w przypadkowych miejscach genomu, a następnie selekcję mutantów o określonym fenotypie. Analiza takich mutantów ujawnia następnie, które geny uległy zmianie, a sekwencjonowanie DNA umożliwia precyzyjną identyfikację wprowadzonych zmian[15]. Rekombinacyjna technologia DNA umożliwia dokonywanie in vitro specyficznych mutacji w określonym miejscu w genie. Za pomocą delecji, insercji lub substytucji można konstruować nowe geny o programowalnych cechach[15]. Poprzez łączenie segmentów genów, kodujących domeny białkowe wzajemnie niezwiązane w naturalnych cząsteczkach białek można tworzyć nowe białka. Metody stosowane w chemii białek i kwasów nukleinowych są wysoce synergistyczne, pozwalają z łatwością przechodzić od genu do białka i z powrotem. Rekombinacyjna technologia DNA w znaczący sposób zmienia możliwości metod projektowania białek.

Selekcja i ukierunkowana ewolucja:

Metoda zwana „Direct Evolution” naśladuje naturalną ewolucję wybranego genu (rodzicielskiego) dającą w wyniku mutagenezy i rekombinacji bibliotekę różnorodnych genów potomnych[3]. Bibliotekę tę skanuje się w poszukiwaniu mutacji, które spowodowały największy rozwój pożądanych właściwościach, a znalezione mutanty stają się genami rodzicielskimi dla następnej generacji. Takie przeglądanie właściwości ma na celu znalezienie udoskonaleń aktywności, specyficzności (włączając enencjoselektywność) oraz stabilności, i stosowane jest w rozwoju enzymów szlaków metabolicznych[3]. Ukierunkowana ewolucja wiąże się głównie z rekombinacją kilku aminokwasów, mających bezpośredni wpływ na funkcję białka, dlatego metoda ta wymaga białka startowego, posiadającego pewną aktywność w odniesieniu do pożądanej reakcji.

Jedną z wad tej metody jest konieczność stworzenia procesu selekcji wystarczająco szybkiego, by mógł on sprawdzić miliony mutantów, pod względem poprawnej zmiany mierzonej cechy[3]. Otrzymywanie produktów, w celu sprawdzenia właściwości enzymatycznych każdego mutanta, jest dość kosztowne i mało wydajne. Aktywnie poszukuje się genialnych, wysokowydajnych metod selekcji. Stosowanie fluorowanych substratów, w wysokowydajnych metodach przeszukiwań, jest owocną gałęzią, intensywnie badaną i rozwijaną. Inne metody obejmują łączenie substratów z cząsteczkami fagów[1], dzięki czemu związanie produktu można wykorzystać do wzbogacenia eksponowanych przez faga aktywnych enzymów, lub system trój-hybrydowy in vivo oparty na współzawodnictwie substratów[3]. Większość układów selekcyjnych skanuje właściwości katalityczne pośrednio, często przez wiązanie. Jedną z występujących w związku z tym trudności jest fakt, że wiele z pośród mutantów ma tendencję do bardziej ścisłego wiązania się z substratem, co niekoniecznie ma związek z lepszymi właściwościami katalitycznymi.

Ponieważ selekcja jest etapem limitującym prowadzi się również badania nad optymalizacją mutacji i rekombinacji w celu ograniczenia liczby mutantów. Mutageneza regionów restrykcyjnych genu może stanowić jedną z metod optymalizujących[3]. Trudność jednak polega na tym, gdzie powinna zostać wprowadzona mutacja, by wyniku przeniesienia subtelnych zmian powstałych w pewnej odległości od miejsca aktywnego, nastąpiło polepszenie właściwości. Inne z podejść proponuje silną metagenezę miejsca aktywnego, jednak większość mutantów stworzona tą techniką posiada drastycznie zredukowane zdolności katalityczne, tak więc wymaga ogromnie dużych możliwości selekcyjnych do wykrycia usprawnień[3]. Dopasowanie ukształtowania można zilustrować drogą, którą należy przebyć od wysokiego dopasowania dla Funkcji A do wysokiego dopasowania Funkcji B. Pierwszy skok, pozwalający osiągnąć początkowy poziom Funkcji B, wymaga pokonania nieaktywnego regionu w przestrzeni sekwencyjnej. Komputerowe projektowanie pozwala na pokonanie niezwykle dużych nieaktywnych przestrzeni sekwencyjnych. Ukierunkowana ewolucja powinna wówczas stanowić efektywne narzędzie do iteracyjnego poprawienia Funkcji B do wysokiego poziomu aktywności. Ukierunkowana ewolucja enzymów in vitro, stosująca losowe mutacje genetyczne oraz rekombinację, poprzedzoną selekcją banku genów lub wyborem pożądanej cechy, jest wykorzystywana jako ogólnie dostępna metoda modyfikacji właściwości enzymów. Technika ta ma tę zaletę, że nie wymaga a priori wiedzy o zależnościach pomiędzy strukturą białka oraz jego funkcją dla jego eksperymentalnego projektowania. Obecny postęp pokazał, że ukierunkowana ewolucja może dostarczać nowych enzymów z odmienną specyficznością wobec substratów, enancjoselektywnością, topologią białka, stabilnością termiczną oraz tolerancją na rozpuszczalniki organiczne[3].

Modelowanie molekularne

W cyklu projektowania białek metody obliczeniowe pośredniczą między eksperymentem a teorią. Komputerowe projektowanie białek zaczyna się od określenia współrzędnych dla głównego łańcucha białka - identyfikacji sekwencji i geometrii aminokwasów, a następnie, wykorzystując pola siłowe, określa się optymalną i stabilną geometrię szkieletu całej struktury[14]. Nawet dla małych białek liczba możliwych sekwencji znacznie przekracza liczbę tych, które mogłyby zostać sprawdzone. Rozwój wydajnych algorytmów szukających optymalnych rozwiązań stanowi więc główny kierunek działań. Badania korelujące przewidywane i eksperymentalne stabilności stosuje się do iteracyjnego polepszenia empirycznych pól siłowych obliczanych przy projektowaniu białek. Do projektowania funkcjonalnych białek stosowana jest kombinacja przewidywanego pola siłowego i szybko działających algorytmów.

Projektowanie białek wymaga wyrażenia na energię lub pole siłowe, aby dla poszczególnych struktur zaklasyfikować każdą z sekwencji aminokwasów. Potrzebny jest dialog pomiędzy teorią a eksperymentem dla określenia, które wkłady energetyczne są niezbędne i jaka jest ich waga. Należy zdefiniować, w odniesieniu do eksperymentu, wyrażenie na energię sekwencji, docelowego szkieletu, struktury o minimalnej energii[14]. W najprostszym podejściu energia obliczana jest dla każdej możliwej sekwencji i zgłaszana jest sekwencja o najniższej energii. Podejście takie jest jednak niepraktyczne. Pomijając możliwość licznych konformacji każdego aminokwasu i mając do dyspozycji 20 naturalnie występujących aminokwasów, w wyniku podstawienia ich w każdą pozycję 100 aminokwasowej cząsteczki otrzymuje się 10130 możliwych sekwencji. Jak widać niezbędne stają się genialne techniki minimalizacji energii[14]. Opublikowane algorytmy (przybliżenie samouzgodnionego pola, Monte Carlo, algorytmy niezależnej sieci i genetyczne) posiadają możliwość obliczania dużej przestrzeni kombinatorycznej, ale ich wadą jest brak gwarancji znalezienia globalnie optymalnego rozwiązania. Istnieją algorytmy (eliminacja ślepego końca oraz metoda zakańczania rozgałęzień), które dają globalne optimum, ale wymagają dyskretyzacji konformacji łańcuchów bocznych aminokwasów za pomocą biblioteki rotamerów, która stanowi limit obliczeniowy nakłdany na dozwolone konformacje. Dyskretyzacja konformacji łańcuchów bocznych zwiększa prawdopodobieństwo „fałszywie negatywnych„ wyników[14]. Molekularne projektowanie białek, aby było stosowalne, musi dawać w wyniku tylko podzbiór sekwencji prowadzących do właściwego fałdowania, z zasymulowanymi energiami, które korelują z ich eksperymentalnymi wartościami. Symulacja nie musi przewidywać jak dobrze, wprowadzone z zewnątrz sekwencje, dopasują się do docelowego białka[14]. Np. struktura krystalograficzna domeny B1 białka G Streptoccocal pokazuje, że LEU7 jest w niezwyczajnej konformacji, która nie pojawia się w standardowej bibliotece rotamerów, dlatego algorytm korzystający z takiej biblioteki może nie zaproponować leucyny w pozycji 7 w głównym rankingu sekwencji[14]. Efekt wielkości biblioteki rotamerów również powinien zostać uwzględniony, ogółem im większa biblioteka tym lepiej, jeśli jednak biblioteka zawiera zbyt wiele podobnych konformacji każdego aminokwasu wtedy minimalizacja energii może być powolna.

Owocne okazało się podejście redukcjonistyczne, w którym podzespoły białka projektowane są niezależnie[14]. Obliczeniowe modelowanie rdzeni białek sięga wstecz kilka lat, ostatnio również próbuje się modelować powierzchnię i pozycje wiążące. Problem projektowy ogranicza się do pewnych podzbiorów aminokwasów, które powinny znajdować się w każdej z trzech klas powyższych podzespołów białka. Rdzenie białkowe typowo zbudowane są z hydrofobowych aminokwasów, natomiast ich powierzchnia w większości składa się z aminokwasów hydrofilowych, miejsca wiążące natomiast muszą być modelowane z pośród wszystkich aminokwasów zarówno hydrofobowych jaki i hydrofilowych[14]. Pożądana jest zautomatyzowana możliwość klasyfikacji domen podzespołów[4], dlatego wprowadzono sporo przybliżeń. Panuje pogląd, że proces fałdowania jest bezpośrednio związany z hydrofobowym zapadnięciem się polipeptydu, co sugeruje, że hydrofobowy rdzeń jest istotnym punktem w kształtowaniu struktury i stabilności białka. Ważną rolę odgrywają tutaj siły van der Waalsa[7]. Modele, w których stałe upakowania są jedynymi składowymi wyrażenia na energię, są zdolne przewidywać stabilność mutacji rdzenia z dobrą dokładnością, gdy substytucje polarne są niedozwolone. Waga stałych upakowania wprowadzana jest przez skalowanie atomowego promienia van der Waalsa czynnikiem alfa. Optymalną wartością alfa jest 90%, co wiąże się z tym, że niewielkie nadpakowanie fragmentów hydrofobowych w rdzeniu może stabilizować strukturę projektowanego białka[14]. Korzyść ze stosowania uproszczonego promienia van der Waalsa można wiązać z wkładami akomodującymi elastyczność szkieletu i rota-merów. Konsekwencją przekonania, że efekty hydrofobowe są dominującą przyczyną fałdowania się białek, było wprowadzenie efektów związanych z solwatacją do modelowania białkowych rdzeni. Efekty hydrofobowe są zwykle przybliżane nadwyżką energii proporcjonalną do ilości rozpuszczalnika kontaktującego się z po-wierzchniami obszarów hydrofobowych pogrzebanych podczas fałdowania[14]. Mogą również zostać nałożone sankcje związane z pochowaniem obszarów polarnych. Obliczenie energii solwatacji jest skomplikowane z powodu konieczności skonstruowania wyrażenia na energię sumującego oddziaływania dwuciałowe. Wprowadzenie wkładu entropowego może natomiast polepszyć korelację pomiędzy prognozowaną energią i aktywnością biologiczną.

Przebudowa powierzchni białka ma swój początek w wyrażeniu na energię zdeterminowanym już w wyniku badań nad rdzeniem. Badania wykazały ważność oddziaływań elektrostatycznych oraz wiązań wodorowych (zależnych od hybry-dyzacji).W przypadku powierzchni alfa–helikalnych żadne dalsze wkłady nie są wymagane, aby osiągnąć dobre efekty. Jest to prawdopodobnie spowodowane tym, że łańcuchy boczne, które łatwo tworzą wiązania wodorowe z tą samą łatwością tworzą alfa helisy. Wkłady te nie są jednak odpowiednie do projektowania struktur beta. Konieczne jest bezpośrednie policzenie wyrażenia na energię dla łańcuchów bocznych o ten-dencjach do tworzenia tych struktur, ponieważ zwykle wyrażenie na energię nie włącza energii łańcuchów bocznych, które w pewnych przypadkach mogą prowadzić do określonych własności. Efekty hydrofobowe mogą doprowadzić sąsiadujące pasma do ułożenia w sposób, który pozwoli na pochowanie jak największej liczby eksponowanych obszarów hydrofobowych, np. przez pokrycie jej długimi amfifilowymi łańcuchami bocznymi.

Niektóre obszary nie mogą zostać ściśle zaklasyfikowane jako rdzeniowe lub powierzchniowe, a w zależności od orientacji łańcucha bocznego mogą one oddziaływać z rdzeniem lub z rozpuszczalnikiem[14]. Takie niesprecyzowane zachowanie może zostać wytłumione przez sankcjonowanie odpowiedniej ekspozycji. Oddziaływania te również mogą mieć silny wpływ na stabilność struktury i własności białka.

Istnieją nieliczne przykłady obliczeń wykonanych dla całkowitej sekwencji, dla których eksperymentalnie potwierdzono, że osiągnięto założony cel. Obliczenia struktury złożonej z 1 obszaru rdzeniowego, 7 obszarów wiążących i 18 obszarów powierzchniowych, dały w wyniku 1027 możliwych sekwencji[14]. Wynik ten obrazuje możliwości projektowe metod obliczeniowych Większość rozwiązań projektowych wymaga ustalonego szkieletu[4]. Obliczenia są przygotowywane z założeniem, że docelowy szkielet struktury jest dokładnie taki, jaki zostanie uzyskany z obliczonej sekwencji. Zmiany w szkielecie niekoniecznie wymagają dużych zmian w dostępnej przestrzeni sekwencyjnej. Elastyczność szkieletu może być modelowana przez zastosowanie łagodniejszego potencjału van der Waalsa (z rozmytymi kątami atomów). Ruchy szkieletu białka mogą być włączone do obliczeń jeśli szkielet jest sparametryzowany i, by zachować łatwość obliczeń, ilość kombinacji rotacji łańcuchów bocznych została ograniczona.

Projektowanie odwróconego fałdowania (negative design) polega na znalezieniu sekwencji aminokwasów o najni...

Zgłoś jeśli naruszono regulamin