f546519a9f72618bb5b13e65a09ad44a

Blog naukowo-techniczny: 2010

sobota, 17 lipca 2010

Astronomiczne odkrycie polskich gimnazjalistów

Mieszczące się na Harwardzie Minor Planet Center - gromadzące dla Międzynarodowej Unii Astronomicznej i NASA dane m.in. o asteroidach - potwierdziło właśnie odkrycie planetoidy przez uczniów gimnazjum w Sierpcu. Nowy obiekt to tzw. MBA, czyli "ciało pasa głównego" (ang. main belt asteroid). Gimnazjaliści odnaleźli asteroidę 18 czerwca, jednak na ostateczne potwierdzenie odkrycia musieli poczekać dwa tygodnie. O ich sukcesie poinformował dr Patrick Miller, pracownik Hardin-Simmons University w Teksasie i kierownik programu "International Astronomical Search Collaboration" (IASC). Nowo odkryte ciało otrzymało oznaczenie 2010 MN2.


Uczniowie Gimnazjum Miejskiego im. Mikołaja Kopernika w Sierpcu, pracujący pod opieką nauczyciela fizyki i astronomii Józefa Urbańskiego, w ostatnich dniach odnieśli także inny sukces. Zespołowi w składzie: Aleksandra Kopycińska, Michał Lewandowski, Hubert Przygucki, Krzysztof Urbański i Piotr Woźnicki udało się zdjąć z listy "killerów", czyli planetoid potencjalnie zagrażających Ziemi, asteroidę NEO 2010 MF1.

"Dzięki weryfikacji wykonanej przez uczniów mamy pewność, że ten obiekt nigdy nie uderzy w Ziemię" - tłumaczy dr hab. Lech Mankiewicz, dyrektor Centrum Fizyki Teoretycznej PAN w Warszawie i jeden z polskich koordynatorów programu Hands-On Universe - Europe, w ramach którego szkoły biorą udział w kompaniach IASC.

To nie pierwsze osiągnięcia uczniów z Sierpca, gdzie obok gimnazjalistów małym ciałom Układu Słonecznego przyglądają się także uczniowie Liceum Ogólnokształcącego im. mjr Henryka Sucharskiego (m.in. potwierdzenia dwóch NEO - 2009SK i 2009UD19).

Sukcesy w kampaniach IASC ("NEO Confirmation Campaign" i "International Asteroid Search Campaign") mają także zespoły z innych polskich miejscowości - w ciągu kilku ostatnich lat udało się im odkryć kilkadziesiąt planetoid i potwierdzić orbity kolejnych kilkudziesięciu obiektów.

"Kiedy kończyła się poprzednia kampania, dr Miller zapytał, czy któryś z zespołów nie chciałby kontynuować prac także na początku wakacji. Zgodziliśmy się i teraz wiemy, że było warto" - powiedział Józef Urbański.

"Obawiam się tylko, że zaangażowanie uczniów i pana Urbańskiego - zwieńczone takimi sukcesami - może pozostać niezauważone w obliczu finału kampanii wyborczej. Szkoda, bo to wiedza bezcenna nie tylko dla naukowców, ale de facto dla nas wszystkich. Po cichu liczę jednak na ciszę wyborczą" - dodaje Mankiewicz.

Projekt IASC powstał dzięki współpracy instytucji ze Stanów Zjednoczonych i Unii Europejskie: Hardin-Simmons University, Lawrence Hall of Science (University of California, Berkeley), Astronomical Research Institute, Global Hands-On Universe Association (Portugalia), Sierra Stars Observatory Network i Astrometrica (Austria).

Polskie szkoły uczestniczą w IASC dzięki programowi Hands-On Universe - Europe, w ramach którego udostępniane są nowoczesne narzędzia dydaktyczne wspomagające nauczanie przedmiotów ścisłych - np. program webkamerkowych obserwacji astronomicznych czy program wykorzystujący zdalnie sterowane teleskopy i radioteleskopy.

Read more...

poniedziałek, 12 lipca 2010

Prof. Kurzydłowski o szansach Polski w nanotechnologii

Perspektywy rozwoju nanotechnologii w Polsce są dobre. Luka technologiczna między nami, a krajami najbardziej zaawansowanymi w tej dziedzinie jest względnie mała. Mamy też wysoki poziom badań naukowych, a zainteresowanie przemysłu ich wynikami skłania do optymizmu - uważa prof. Krzysztof J. Kurzydłowski z Wydziału Inżynierii Materiałowej Politechniki Warszawskiej. Podczas niedawnego konwersatorium PW naukowiec mówił m.in. o tym, czym jest nanotechnologia oraz jakie konsekwencje i korzyści ze sobą niesie.

Zdaniem prof. Kurzydłowskiego, dziś na naszych oczach dokonuje się swoista "rewolucja" w obszarze techniki związanej z nanotechnologiami, porównywalna z tą, z która dotyczy tzw. technik wirtualnych. Liczba publikacji i patentów naukowych w nanotechologii z roku na rok jest coraz większa. Jak podkreślił naukowiec, nie jest to przejaw chwilowej nano-mody (choć i taka też występuje, bo tematy badawcze są "zaraźliwe"), ale stała tendencja.
Nanotechnologia to wytwarzanie materiałów o budowie kontrolowanej w skali nanometrycznej, o wymiarach rzędu miliardowych części metra (dla przykładu: w jednym nanometrze mieści się 10 atomów). To nano-cząstki, nano-włókna, nano-ziarna, nano-warstwy, nano-ageregaty, nano-kompozyty. Ich wymiary są porównywalne z wymiarami struktur biologicznych - na przykład żywych komórek. Uzyskiwane dziś przykładowo w laboratoriach nanorurki węglowe mają średnice rzędu 500 nanometrów, czyli tyle samo co średnice nici pajęczych - tłumaczył prelegent.

Zauważył przy tym, że zejście do tak niewielkich wymiarów niesie ze sobą różne skutki.

Jedną z konsekwencji jest konieczność uwzględniania praw rządzących nanoświatem. Cząstki nanomateriałów są tak blisko siebie, że zaczynają nawzajem na siebie oddziaływać. Istotnego znaczenia nabierają więc na przykład procesy dziejące się na granicach ziaren oraz w obszarach je rozdzielających - tłumaczył prof. Kurzydłowski. Jak dodał, w nanomateriałach dochodzi też m.in. do zmian rozkładu spinów magnetycznych, objętości właściwej (w tej samej objętości da się upakować np. milion razy więcej nano-cząstek), wytrzymałości, segregacji zanieczyszczeń i dodatków stopowych.

Według naukowca, niektóre z tych procesów umiemy już wykorzystywać w praktyce, na przykład w produkcji form odlewniczych (zastosowanie nano-proszków eliminuje wady odlewów), wytwarzaniu trwalszych łopatek turbin silników lotniczych poddawanych olbrzymim temperaturom i obciążeniom mechanicznym, sensorów, materiałów przewodzących, kompozytów i żywic epoksydowych. Nad innymi materiałami badania trwają.

W Polsce zaawansowane prace w tej dziedzinie są prowadzone w kilku ośrodkach naukowych, m.in. w kierowanym przez prof. Kurzydłowskiego Zakładzie Projektowania Materiałów na Wydziale Inżynierii Materiałowej PW. Benefit from fantastic savings on bulk sms , just by taking a look at http://kapsystem.com W badaniach nad nowymi metodami uzyskiwania nanomateriałów wydział współpracuje m.in. z Instytutem Wysokich Ciśnień PAN.

Prof. Kurzydłowski przypomniał, że 14 września tego roku Politechnika Warszawska będzie organizatorem pierwszego w Polsce, szerokiego forum ludzi nauki i biznesu poświęconego nanotechnologii. Jego celem będzie m.in. pokazanie nano-produktów oraz wskazanie jakie korzyści przynosi nanotechnologia w różnych dziedzinach życia.

Read more...

czwartek, 17 czerwca 2010

Tomasz Rubanowicz pracuje nad dokładniejszymi prognozami mocy wytwórczej farmy wiatrowej

Nad metodą obliczeniową i narzędziem programowym, które pozwoli przewidzieć moc wytwórczą farmy wiatrowej, pracuje Tomasz Rubanowicz z Wydziału Elektrotechniki i Automatyki Politechniki Gdańskiej. Jego aplikacja może uchronić właścicieli farm wiatrowych przed płaceniem kar umownych wynikających z błędnych założeń. Dokładne prognozy ułatwią operatorom sterowanie siecią elektroenergetyczną i optymalne wykorzystanie zasobów.

Moc farmy wiatrowej zależy w dużej mierze od prędkości wiatru. Błędy prognozy łączą w sobie błąd oszacowania mocy i błąd prognozy pogody. Prognozowanie prędkości wiatru jest bardzo istotne, a osiągnięcie założonego błędu prognozy może poprawić sterowanie rozpływami mocy w sieci.
"Dzięki współpracy z inwestorami będę mógł udoskonalać opracowaną metodę oraz zbudować aplikację, która w przyszłości może być udostępniona każdemu potencjalnemu właścicielowi małej, jak i dużej farmy wiatrowej" - zapowiada w rozmowie z PAP Tomasz Rubanowicz.

Jak tłumaczy, dostępne obecnie aplikacje są drogie i właścicieli małych farm wiatrowych nie stać na ich zakup. Ponadto są one niedokładne i błędy w prognozach sięgają 15-20 proc. Mała dokładność prognoz mocy może mieć dla przedsiębiorstwa negatywne skutki ekonomiczne, wynikające z dodatkowych opłat.

Badacz zamierza zwiększyć dokładność prognoz 24-godzinnych przy zastosowaniu sztucznych sieci neuronowych. Szuka też odpowiedzi na pytanie, czy możliwa jest prognoza z błędem 10 proc. na podstawie standardowej prognozy pogody.

Znane narzędzia wspomagające prognozowanie oparte są na prostym modelu analitycznym. Uwzględnia on tylko charakterystyki turbin, prędkość wiatru, ciśnienie i temperaturę powietrza, co nie zapewnia wymaganej dokładności. Nieco więcej czynników obejmują modele rekurencyjne.

"Zadanie staje się szczególnie trudne, gdy chcemy oprzeć estymację mocy na prognozie pogody dla pewnego obszaru, a nie konkretnej lokalizacji" - stwierdza Rubanowicz.

Jego zdaniem, w modelu prognozy należy uwzględnić nie tylko profil wiatru, kierunek wiatru, przesłonięcie, ale także dynamikę zmian kierunku wiatru. Tak złożony model wymaga zastosowania dynamicznej sieci neuronowej o odpowiedniej strukturze.

Naukowiec, pod kierunkiem prof. nadzw. PG dr hab. inż. Elżbiety Bogaleckiej, prowadzi badania związane z oceną wiarygodności danych produkcyjnych i meteorologicznych, wyborem struktury modelu prognozy; oceną znanych modeli analitycznych, określeniem struktury modelu neuronowego, symulacją i eksperymentem.

Jego celem jest wdrożenie metody obliczeniowej. Opracowane narzędzie będzie użyteczne dla podmiotów odpowiedzialnych za bilansowanie mocy w sieci elektroenergetycznej i dla właścicieli farm wiatrowych.

"Wykorzystanie zbudowanego narzędzia nie ma ograniczeń regionalnych, dotyczy każdej farmy wiatrowej, inna jest tylko próbka ucząca, czyli końcowe parametry sieci" - zapewnia Tomasz Rubanowicz.

Zaznacza, że jego zadanie jest aktualne naukowo, o czym świadczą liczne publikacje międzynarodowe oraz fakt, że temat ten jest często poruszany przez naukowców i inwestorów na konferencjach branżowych.

Read more...

czwartek, 10 czerwca 2010

Brokerzy technologii zwierają szyki

Powstanie nowego międzynarodowego aliansu na rzecz profesjonalizacji transferu technologii pod nazwą The Aliance for Technology Transfer Proffesionals (ATTP) zostało ogłoszone 27. maja podczas dziesiątej dorocznej konferencji Stowarzyszenia Europejskich Specjalistów Transferu Nauki i Technologii (ASTP) w Paryżu. Polskę reprezentowało stowarzyszenie IP Management.

Jak poinformowała dr Elżbieta Naumowicz z IP Management, celem ATTP jest wspieranie rozwoju branży transferu technologii i jej profesjonalizacja na globalnym rynku. O aliansie związanym z komercjalizacją nauki będzie mowa podczas VII Sesji IP Workshop – bezpłatnych warsztatów organizowanych 11 i 12 czerwca na Politechnice Warszawskiej w ramach PO IG "Centrum Kompetencji Zarządzania Własnością Intelektualną IP Hub”. Gościem sesji będzie Claar-els van Delft, dyrektor generalny ASTP i ATTP.

„Transfer innowacji i wiedzy pozyskanej z badań finansowanych z pieniędzy publicznych jest obecnie ważniejszy niż kiedykolwiek wcześniej – powiedziała Karen Laigaard, prezes ASTP. - Inwestowanie firm we wdrażanie i rozwój innowacji wzmacnia ich konkurencyjność w zglobalizowanym świecie i pozwala łatwiej wprowadzać zmiany i adaptować się do tych zmian. Zatem komercjalizacja badań i transfer wyników badań do przemysłu ożywi rozwój produktów i procesów przyczyniających się do wzrostu ekonomicznego.”

Prezes AUTM, Ashley Stevens, podkreśla, że „poprzez promocję dzielenia się wiedzą w światowej społeczności związanej z transferem technologii, ATTP przyczyni się do pogłębienia profesjonalizacji i promocji transferu technologii i wiedzy pomiędzy nauką a przemysłem w wymiarze globalnym”.

Transfer nowych odkryć i nowej wiedzy z badań laboratoryjnych na rynek komercyjny jest powszechnie uznany za fakt o ogromnym znaczeniu dla światowej ekonomii. Profesjonaliści pracujący nad ułatwieniem tego transferu są tak różni, jak kultury, które reprezentują. Jednakże, by byli efektywni, muszą wykazać się konkretną wiedzą branżową. Z tych powodów grupa wiodących organizacji zajmujących się transferem technologii ukonstytuowała ATTP, wśród nich: europejskie ASTP, amerykańskie AUTM, tajwańskie ATMT, australijskie KCA oraz brytyjskie PraxisUnico.

ATTP zostało ustanowione celem przyciągnięcia i promocji zdolnych jednostek oraz zapewnienia im profesjonalnego szkolenia, w przekonaniu, że zdobyte umiejętności pomogą im wejść do grona Zarejestrowanych Specjalistów ds. Transferu Technologii (RTTP od angielskiego Registered Technology Transfer Professional). Dotąd każda organizacja miała swoje własne kryteria akredytacyjne, natomiast ATTP ustanowi międzynarodowe standardy. W momencie utworzenia ATTP łączy ponad 5000 specjalistów ds. transferu technologii z 67 krajów.

„Profesjonaliści w zakresie międzynarodowego zarządzania własnością intelektualną muszą zmierzyć się zarówno z podażą wynalazków i ich komercjalizacją, jak i popytem gospodarki na innowacje” – podkreśla Bogusław Węgliński, prezes IP Management Polska.

Read more...

niedziela, 6 czerwca 2010

Z 7 na 8 czerwca dojdzie do bardzo bliskiego spotkania na niebie Jowisza i Urana - informuje dr hab. Arkadiusz Olech z Centrum Astronomicznego PAN w Warszawie. Uran to jedna z najbardziej niedocenianych planet. Choć jest widoczna gołym okiem, mało kto ze zwykłych ludzi widział ją na własne oczy. Jest to efekt jej niewielkiej jasności, iphone 6 hoesje bo nawet w maksimum swojego blasku planeta ta świeci niewiele jaśniej od najsłabszych gwiazd widocznych gołym okiem. Chcąc więc dojrzeć Urana musimy mieć dobry wzrok, dobre warunki do obserwacji i przede wszystkim wiedzieć gdzie go szukać.

Teraz nadarza się okazja do odnalezienia Urana, bo świetnym drogowskazem do niego będzie jasny Jowisz. 8 czerwca, o godzinie 11 naszego czasu obie planety, na niebie, będzie dzieliła odległość tylko 0.4 stopnia - jest to dystans mniejszy niż tarcza Księżyca.
 
Na obserwacje najlepiej wyjść około godziny 2:00-2:30 naszego czasu w nocy z 7 na 8 czerwca. Patrząc w kierunku południowo - wschodnim, około 10 stopni nad horyzontem zobaczymy jasny obiekt - to Jowisz. Z jego odnalezieniem nie powinno być żadnych problemów.

Około pół stopnia w kierunku wschodnim od Jowisza powinniśmy zobaczyć Urana. Always prepare before you make a choice. There is so much info about printsteals at http://printsteals.com Obserwacje wcale nie będą łatwe, bo będzie w nich przeszkadzać niska wysokość planety nad horyzontem i łuna wschodzącego Słońca. Dlatego najlepiej zaopatrzyć się w lornetkę. Dysponując takim instrumentem nie powinniśmy mieć żadnych problemów z dojrzeniem siódmej planety od Słońca.

Read more...

wtorek, 18 maja 2010

Lekarze: u połowy diabetyków cukrzyca typu 2 wykrywana zbyt późno

Cukrzyca typu 2 u połowy diabetyków jest wykrywana dopiero, gdy pojawią się jej niebezpieczne powikłania, jak zawały i udary mózgu. Tymczasem, wczesne wykrycie choroby i ścisła kontrola poziomu glukozy od początku leczenia pozwalają prowadzić normalne życie - uważają diabetolodzy.

W środę zainaugurowano 5. edycję akcji profilaktyczno-edukacyjnej, która w tym roku przebiega pod hasłem "Celuj w zdrowie, uderz w C". W jej ramach organizatorzy zaplanowali bezpłatne badania profilaktyczne w kierunku wykrywania cukrzycy w czterech miastach Polski: Warszawie (odbywały się 12 maja), Wiśle (15 maja), Krakowie (18 maja) i Białymstoku (20 maja). Diabetycy będą też mogli wykonać pomiar hemoglobiny glikowanej (HbA1c), która pozwala ocenić efekty leczenia.
Jak przypomniał obecny na spotkaniu prof. Waldemar Karnafel z Warszawskiego Uniwersytetu Medycznego, w 2006 r. Organizacja Narodów Zjednoczonych uznała cukrzycę za niezakaźną epidemię XXI wieku. Obecnie na świecie żyje 285 mln osób z tym schorzeniem, a w 2030 r. liczba ta może wzrosnąć do 435 mln.

Za tak dramatyczny wzrost zachorowań na cukrzycę odpowiada, według prof. Karnafla, zmiana stylu życia ludzi na siedzący oraz znaczny wzrost kaloryczności naszej diety. 90 proc. przypadków tej choroby stanowi bowiem cukrzyca typu 2, silnie związana z otyłością i brakiem ruchu. W przeciwieństwie do cukrzycy typu 1, która jest chorobą autoagresywną dotyczącą przede wszystkim dzieci i młodzieży, cukrzyca typu 2 jest skutkiem tego, że organizm traci zdolność prawidłowego wykorzystywania insuliny, tj. hormonu regulującego poziom glukozy we krwi. Typowe dla cukrzycy wysokie stężenie tego cukru jest groźne dla życia, gdyż uszkadza wiele tkanek i narządów.

W Polsce liczbę cukrzyków szacuje się na 2,6 mln, ale połowa z nich nie wie, że jest chora. "Problem w tym, że cukrzyca nie boli, może rozwijać się przez wiele lat - średnio przez osiem - nie dając żadnych objawów" - tłumaczył diabetolog. W końcu ujawnia się w postaci groźnych powikłań - udaru mózgu, zawału serca, uszkodzenia siatkówki, nerek, nerwów obwodowych (główna przyczyna amputacji kończyn w cukrzycy).

Wśród objawów, które mogą nas skłonić do podejrzewania u pacjenta cukrzycy typu 2 prof. Karnafel wymienił częstą senność, zmęczenie, trudno gojące się zmiany ropne na narządach płciowych, zwiększone pragnienie, nieco częstsze oddawanie moczu. Mogą się one nasilać w trakcie infekcji.

Według prof. Jacka Sieradzkiego z Collegium Medicum Uniwersytetu Jagiellońskiego diagnozowanie cukrzycy jest bardzo proste i tanie - zmierzenie poziomu glukozy we krwi (w laboratorium, a nie w domu przy pomocy glukometru) kosztuje najwyżej kilka złotych, więc nie obciąża budżetu lekarza podstawowej opieki zdrowotnej.

"W Polsce pacjenci nie mają, niestety, możliwości bezpośredniego zgłaszania się do diabetologa. Jednak lekarze podstawowej opieki zdrowotnej powinni mieć wystarczającą wiedzę na temat cukrzycy, by móc ją diagnozować i leczyć. Dopiero w ciężkich przypadkach diabetycy powinni być kierowani do specjalisty" - uznał prof. Sieradzki. Jak przypomniał, Polskie Towarzystwo Diabetologiczne co roku nowelizuje wytyczne dla lekarzy odnośnie rozpoznawania i leczenia tej choroby.

Zdaniem specjalisty, bardzo trudno byłoby prowadzić badania przesiewowe w kierunku cukrzycy w całej polskiej populacji, dlatego diabetolodzy wytypowali grupy ryzyka, u których powinno się regularnie sprawdzać poziom glukozy we krwi. Osoby po 45. roku życia - kiedy to gwałtownie wzrasta częstość występowania cukrzycy - powinny to robić raz na 3 lata, jeśli są zdrowe. W przypadku osób, które są otyłe, cierpią na schorzenia układu sercowo-naczyniowego, prowadzą siedzący tryb życia, mają krewnego I stopnia z cukrzycą, kiedyś miały już zaburzenia w poziomie glukozy oraz kobiet, które urodziły dziecko ważące powyżej 4 kg zaleca się sprawdzanie poziomu glukozy raz w roku.

"Pacjenci muszą pamiętać, że cukrzyca wcześniej wykryta i od początku dobrze kontrolowana pozwala zapobiec powikłaniom i prowadzić aktywne życie" - zaznaczył prof. Sieradzki. Jego zdaniem, dowodem na to mogą być np. himalaiści, taternicy, a nawet olimpijczycy cierpiący na cukrzycę.

Prof. Karnafel przypomniał, że dobre leczenie tej choroby składa się z czterech równoważnych elementów, tj. z edukacji pacjenta, odpowiedniej diety, aktywności fizycznej oraz leków i insuliny.

"Edukacja chorego jest warunkiem dobrej kontroli cukrzycy. Pacjent z cukrzycą powinien wiedzieć o swojej chorobie więcej niż prowadzący go lekarz" - ocenił prof. Sieradzki. Tymczasem, edukacja diabetologiczna nie jest w Polsce dobrze realizowana - w procedurach Narodowego Funduszu Zdrowia nie ma pieniędzy na ten cel - zaznaczył.

Według prof. Karnafla, chorym na cukrzycę trzeba ciągle przypominać o roli diety i aktywności fizycznej w terapii ich schorzenia. To download game killer apk free, and all android free apks go here Game Killer APK Badania wskazują, że na pewnym etapie rozwoju cukrzycy, zmiana stylu życia na bardziej aktywny oraz zmniejszenie kaloryczności diety mogą spowodować cofnięcie się choroby. Jak przypomniał prof. diabetolog w 2009 r. na świecie przeprowadzono 380 tys. operacji zmniejszania żołądka, które prowadząc do spadku masy ciała spowodowały u wielu z operowanych pacjentów ustąpienie stanu przedcukrzycowego, jak również cukrzycy typu 2.

Według diabetologów, w Polsce z powodu braku refundacji nie wszystkie metody leczenia cukrzycy są dostępne dla pacjentów. Nierefundowane są np. długodziałające analogi insulin oraz leki zaliczane do analogów inkretyn, bądź hamujące rozkład inkretyn.

Read more...

poniedziałek, 12 kwietnia 2010

Pierwszy długi lot samolotu na energii słonecznej

Pierwszy długi lot samolotu na energii słonecznej zakończył się sukcesem. Jednomiejscowy aparat latający wylądował pomyślnie na lotnisku szwajcarskiego miasta Payerne. Projekt Słoneczny Impuls, jest realizowany pod egidą Federalnego Instytutu Politechnicznego w Lozannie przy wsparciu prywatnych firm i Europejskiej Agencji Kosmicznej. Samolot o futurystycznym wyglądzie, którego budowa kosztowała 80 milionów euro, przebywał w powietrzu niespełna półtorej godziny, lecąc z prędkością około 40 km/godz. Czas ten wykorzystany został dla przetestowania praktycznie wszystkich systemów aparatu, a także możliwości w nabieraniu i zmniejszaniu wysokości, dokonywaniu zwrotów, hamowaniu.


Eksperci obserwowali lot nie tylko z Ziemi - zbierając informacje od ponad stu czujników, ale także z powietrza. Szef projektu, psychiatra i aeronauta Bertrand Piccard oraz inżynier, lotnik Andre Borschberg towarzyszyli samolotowi na śmigłowcach. Za sterem eksperymentalnego aparatu znajdował się doświadczony pilot Niemieckiego Centrum Aerokosmicznego Markus Schroedel.

Inauguracyjny lot powinien stać się pierwszym krokiem ku temu, aby unikalny samolot o rozpiętości skrzydeł większej niż u najnowszego pasażerskiego giganta Airbus A380 (80 metrów) i mocy silnika, jak w aeroplanie wypróbowanym w 1903 roku przez braci Wright (12 koni mechanicznych), obleciał z międzylądowaniami kulę ziemską, napędzany wyłącznie energią słoneczną.
Pierwszy eksperyment zakończył się sukcesem i teraz będzie można przejść do następnych etapów - lotów w nocy, pokonania Atlantyku i w końcu - okrążenia w kilku etapach Ziemi, co stanie się dowodem na to, że istnieje alternatywa dla nieodnawialnych źródeł energii. Wcześniej Słoneczny Impuls unosił się w powietrze, ale pokonywał zaledwie odległość 350 metrów na wysokości jednego metra nad ziemią.

Read more...

piątek, 12 marca 2010

Bezpieczniejszy samochód

Polscy naukowcy znaleźli sposób, aby samochód był bezpieczniejszy. Specjaliści z Instytutu Spawalnictwa w Gliwicach oraz z Politechniki Śląskiej opracowali sposób wykonywania mocniejszych, bardziej wytrzymałych, a przy tym lekkich blach, stosowanych do produkcji elementów samochodowej karoserii. W Instytucie Spawalnictwa zespół specjalistów (pod kierownictwem prof. Jana Pilarczyka) przygotował technologię laserowego spawania ocynkowanych blach karoseryjnych różnej grubości.


Technologię tłoczenia takich blach opracował natomiast zespół fachowców (pod kierownictwem prof. Antoniego Pieli) z Wydziału Inżynierii Materiałowej i Metalurgii Politechniki Śląskiej w Katowicach.

CO TO ZNACZY NOWOCZESNY

Nowoczesny samochód ma nie tylko przykuwać wzrok, ale przede wszystkim zapewnić bezpieczeństwo podróżujących nim osób. Chodzi zarówno o tzw. bezpieczeństwo aktywne (jak pasy, poduszki powietrzne, hamulce), jak i o bezpieczeństwo pasywne, czyli wytrzymałość karoserii pojazdu na zgniecenia. Ważne też, by pojazd był lekki i zużywał tym samym niewiele paliwa.

Aby ten rezultat osiągnąć, karoserie składane są z elementów tłoczonych z arkuszy blach (stalowych lub aluminiowych) i dodatkowo wzmacniane w najbardziej newralgicznych miejscach, narażonych na zgniecenie w czasie wypadku, np. słupków bocznych nadwozia i słupków bocznych drzwi przednich. Wzmocnienia takie można wykonywać albo po wytłoczeniu elementów - za pomocą dodatkowych blach, albo przed - stosując do tłoczenia arkusze blach o zróżnicowanej grubości.

Gliwiccy naukowcy opracowali tę drugą technologię - wykonywania półfabrykatów do tłoczenia, spawanych z blach o różnej grubości.

LASEREM I ŁUKIEM

Ponieważ pierwszy sposób ma kilka wad, m.in. większe zużycie surowca i czasochłonność wykonania, od lat 90. producenci samochodów coraz częściej używają blach określanych mianem "tailored blanks". "W produkcji takich blach stosuje się najczęściej metodę spawania laserowego, polegającą na tym, że arkusz blachy, z której ma być wytłoczony określony element karoserii ma w różnych miejscach różną grubość lub wytrzymałość, zależnie od potrzeb konstrukcyjnych" - wyjaśnia prof. Jan Pilarczyk, dyrektor Instytutu Spawalnictwa w Gliwicach.

Arkusze używane do produkcji elementów nadwozia złożone są z kilku fragmentów. Różnią się one grubością, wytrzymałością lub rodzajem powłoki ochronnej. Fragmenty te są spawane przy użyciu wiązki promieniowania laserowego. Jako spawalnicze źródło ciepła,doskonale spełnia ona swoje zadania, poniewaz umożliwia dużą koncentracją energii na powierzchni spawanego materiału.

"W wyniku takiego oddziaływania powstaje spoina o korzystnej geometrii - o niewielkiej szerokości lica i dużej głębokości, wykonana znacznie szybciej, niż przy stosowaniu konwencjonalnych, łukowych metod spawalnia. Dzięki temu odkształcenia spawalnicze elementów łączonych są bardzo małe" - mówi gliwicki naukowiec.

W jego opinii, mankamentem tej technologii spawania jest konieczność prcyzyjnego zestawiania brzegów spawanych blach. "Dlatego też prowadzone są badania nad stosowaniem różnych odmian spawania laserowego - techniki spawania z ogniskowaniem wiązki w dwóch punktach lub tzw. spawania hybrydowego" - mówi prof. Pilarczyk.

Obie te metody, zastosowane do spawania blach typu „tailored blanks”, umożliwaiają dokładniejsze łączenie spoiny i zmniejszają karb w złączu.

"Pierwszy sposób - ogniskowanie wiązki w dwóch punktach - polega na rozszczepieniu wiązki promieniowania laserowego na dwie wiązki składowe i zogniskowaniu ich w dwóch położonych blisko siebie punktach. Dzięki temu powierzchnia obszaru oddziaływania promieniowania laserowego na materiał zwiększa się, a to umożliwia zniwelowania niewielkich błędów w zestawieniu elementów" - wyjaśnia prof. Pilarczyk.

Istotą drugiej metody - laserowego spawania hybrydowego - jest wykorzystanie dwóch źródeł ciepła: wiązki laserowej i np. łuku elektrycznego, stosowanego podczas konwencjonalnej metody spawania. Oddziałują one jednocześnie w tym samym miejscu na powierzchnię elementów spawanych. "Pozwala to przede wszystkim znacznie przyspieszyć spawanie, zmniejszyć niedokładności w zestawianiu elementów, a także zapewnić w złączu łagodne przejście tam, gdzie łączone blachy mają różną grubość" - mówi gliwicki naukowiec.

Ogólną zasadą doboru blach, które mają być połączone w jeden wykrój wsadowy do tłoczenia (zwłaszcza podzespołów karoserii samochodowych), jest dobieranie blach o zróżnicowanej wytrzymałości i możliwie małej różnicy grubości.

Ppodstawą projektowania procesu tłoczenia jest natomiast analiza stanu mechanicznego strefy odkształcenia i analiza tzw. procesu plastycznego płynięcia wykroju wsadowego. "Ocen tych dokonuje się na podstawie badań laboratoryjnych oraz przemysłowych prób tłoczenia" - przypomina prof. Pilarczyk.

LEKKI I WYTRZYMAŁY

Jak mówi, zaletą tej koncepcji budowy nadwozi samochodów jest przede wszystkim zmniejszenie ciężaru pojazdu. dzięki tej metodzie, grubość blachy zwiększa się tylko w tych miejscach, gdzie jest to uzasadnione konstrukcyjnie. Zmniejsza się też liczba dodatkowych wytłoczek usztywniających.

"Podstawową zaletą opisanej wyżej metody wytwarzania nadwozi samochodów jest zatem to, iż są one lżejsze od tradycyjnych konstrukcji, przy spełnieniu wszelkich wymogów bezpieczeństwa. Przyczynia się także do zmniejszenia zużycia paliwa przez pojazdy nowej generacji" - podkreśla. "Karoserie takie charakteryzuje lepsza jakość wykonania. Istotne jest i to, że sam proces tłoczenia poszczególnych elementów nadwozia przebiega praktycznie bez odpadów" - podkreśla.

Read more...

czwartek, 14 stycznia 2010

Phoenix poszybuje niezauważony, czerpiąc energię ze słońca

Zasilany energią słoneczną samolot Phoenix będzie mógł szybować 24 godziny na dobę, na wysokościach uniemożliwiających dostrzeżenie go "gołym okiem". Jego zadaniem będzie zdobywanie informacji m.in. na temat zagrożenia pożarowego, stanu powodziowego czy zmian stanu atmosfery. Nad bezzałogowym samolotem stratosferycznym pracują właśnie naukowcy z warszawskiego Instytutu Lotnictwa.
Realizowany przez nich projekt został dofinansowany kwotą ponad 10 milionów złotych z Programu Operacyjnego Innowacyjna Gospodarka 2007-2013, w ramach konkursu Ministerstwa Nauki i Szkolnictwa Wyższego.

Dlaczego stratosfera?

Jak wyjaśnił PAP jeden z konstruktorów Phoenix, inż. Krystian Woźniak z Instytutu Lotnictwa, stratosfera to przestrzeń między 10 a 50 km n.p.m., a projektowany samolot stratosferyczny będzie szybował między 15 a 20 km n.p.m.

Obszar od 0 do 15 km n.p.m. jest użytkowany przez lotnictwo zarówno cywilne jak i wojskowe. Zasady wykonywania lotów wykonywane są według ściśle określonych regulacji prawnych. "Obszar powyżej 15 km nie podlega tej kontroli i można wykonywać loty zgodnie z trasą wynikającą jedynie z charakteru prowadzonej misji. Operator samolotu jest uniezależniony od ruchu lotniczego, który odbywa się nad obserwowanym terenem, co ma również bardzo istotny wpływ na bezpieczeństwo, bo eliminuje możliwość kolizji" - tłumaczy Woźniak.

Dodał, że na tej wysokości wiatr nabiera znacznie mniejszych prędkości, co jest szczególnie istotne ze względu na większe bezpieczeństwo stosunkowo delikatnej struktury samolotu.

Ważnym powodem, dla którego samolot będzie latał właśnie na poziomie stratosfery jest jego zasilanie przez energię słoneczną. "Na dużych wysokościach ilość energii ze słońca przypadającej na 1 metr kwadratowy powierzchni jest wyższa od tej, którą można uzyskać na powierzchni Ziemi" - opisuje naukowiec.

W ciągu dnia samolot będzie więc zasilany energią elektryczną pochodzącą z ogniw słonecznych. Musi być jej na tyle dużo, by można było naładować akumulatory, które z kolei zasilą samolot podczas pracy w nocy.

Jak mówi inż. Woźniak, taki sposób zasilania umożliwia kontynuowanie lotu bez konieczności lądowania. "Dzięki temu będzie można prowadzić nieustannie działania operacyjne. Jest to bardzo cenna właściwość zwłaszcza w sytuacjach kryzysowych, gdzie informacje o aktualnym stanie zagrożenia są kluczowe do podjęcia decyzji" - dodaje.

W zależności od powierzonej misji w samolocie umieszczane będą kamery optyczne, termowizyjne lub radary SAR (Synthetic Aperture Radar). Zbierane przez nie informacje będą miały różnorodne zastosowanie.

Monitorowanie obiektów, mapy i badanie stanu atmosfery

Samolot będzie mógł przede wszystkim ułatwiać zarządzanie sytuacjami kryzysowymi - np. gaszeniem pożarów czy monitorowaniem sytuacji powodziowej. "Wyposażony w kamery pracujące w paśmie widzialnym o rozdzielczości 10-15 cm, pozwala na śledzenie rozwoju sytuacji w czasie rzeczywistym i umożliwia skuteczniejsze dowodzenie jednostkami" - opisuje inż. Woźniak.

Jak wyjaśnia, za pomocą skaningu laserowego (LIDAR) samolot umożliwi również tworzenie map powodziowych. "Promienie świetlne są pochłaniane przez wodę, dlatego tereny objęte powodzią dobrze widać na obrazie ze skanera" - informuje.

Jednym z zastosowań Phoenixa będzie m.in. możliwość obserwacji osób i pojazdów. "Samolot, latając na bardzo dużych wysokościach, jest praktycznie niewidoczny i całkowicie niesłyszalny dla osób znajdujących się na ziemi" - mówi Woźniak. Dzięki temu będzie można dyskretnie obserwować wybrane obiekty odszukiwać i śledzić ścigane pojazdy, wspierać dowodzenie akcji policyjnych przez dostarczanie na bieżąco obrazu sytuacji. Analiza obrazu umożliwi również śledzenie prędkości pojazdów na obserwowanym terenie. Jedynie duże zachmurzenie może spowodować, że samolot nie będzie mógł zrealizować wspomnianych wyżej zadań.

"System zasilania samolotu umożliwia ciągłe nadzorowanie rejonów przygranicznych, wykrywanie naruszania granic lądowych i morskich za pomocą kamer o zdolności rozdzielczej zapewniającej wykrycie i śledzenie nieautoryzowanych pojazdów np. samochodu czy motorówki" - dodaje inż. Woźniak.

Ponadto, przy pomocy Phoenixa będzie można tworzyć m.in.: topograficzne bazy danych, numeryczne modele terenu, przestrzenne modele miast. Ważnym zastosowaniem jest uaktualnianie, obecnie mocno zdezaktualizowanych map zagospodarowania przestrzennego terenu. "Używane w Polsce mapy katastralne (wielkoskalowe - PAP) są bardzo stare. Do dziś na terenie dawnej Galicji są w użyciu mapy austriackie w niespotykanej nigdzie skali 1:2880 i 1:1440. Zakładana jest aktualizacja danych w cyklu 5-letnim, przy czym każdego roku będzie kryte 20 proc. powierzchni kraju" - zaznacza rozmówca PAP.

Samolot Phoenix może być również wykorzystywany do monitorowania stanu upraw, określania pór nawożenia, wykrywania zagrożeń chorobami, szkodnikami, prognozowania wielkości plonów. Poza tym może służyć do badania zmian składu atmosfery oraz poziomu zanieczyszczenia powietrza. "99 proc. pary wodnej znajduje się w troposferze, dlatego z pułapu operacyjnego samolotu - 20 km n.p.m. możliwe jest obserwowanie chmur w czasie rzeczywistym" - tłumaczy Woźniak.

Projekt rozpoczął się 4 stycznia, a zakończy w grudniu 2013 roku. Visit listwearabletechnology.com to find out more regarding List wearable technology Jak zaznaczył naukowiec, nie dotyczy on jednak budowy urządzeń, a więc kamer optycznych, termowizyjnych czy radarów SAR. Kamera optyczna zostanie zainstalowana na razie jedynie na potrzeby demonstracyjne potwierdzające rzeczywistą możliwość wykorzystania samolotu.

Zdaniem Woźniaka, istnieje bardzo duża szansa na wdrożenie samolotu do produkcji. "Z różnych źródeł - krajowych i zagranicznych - otrzymujemy informację o chęci wykorzystania tego typu samolotu do wsparcia prowadzenia różnego rodzaju działań. Z zagranicy otrzymaliśmy informację np. o potencjalnym wykorzystaniu samolotu na potrzeby monitoringu ruchu morskiego jak również pól naftowych" - deklaruje.

Read more...

poniedziałek, 11 stycznia 2010

Polskie satelity w kosmosie zbadają najgorętsze gwiazdy

W latach 2010-2012 powstaną w Polsce pierwsze naukowe satelity badające gwiazdy jaśniejsze i gorętsze od Słońca. Projekt astronomów, którego koszt wyniesie ponad 14 mln zł, ma pomóc w zrozumieniu wewnętrznej budowy największych gwiazd naszej galaktyki.

"To jest międzynarodowy projekt astronomiczny, którego zadaniem jest obserwacja spoza atmosfery Ziemi drobnych pulsacji jasnych gwiazd za pomocą serii satelitów BRITE" - powiedział PAP szef naukowy projektu prof. Aleksander Schwarzenberg-Czerny z Centrum Astronomicznego PAN, które realizuje go wspólnie z budującym te satelity Centrum Badań Kosmicznych PAN.
W opinii profesora, pulsacje gwiazd, podobnie jak ziemskie wstrząsy sejsmiczne, niosą informację o ich wewnętrznej budowie. "Wyciąganie tych informacji, zwane astrosejsmologią, to specjalność, w której polscy astronomowie należą do absolutnej czołówki 2-3 najlepszych zespołów na świecie" - zapewnił Schwarzenberg-Czerny.

Jak zaznaczył, w eksperymencie chodzi o obserwację kilkuset (500-800) gwiazd Drogi Mlecznej.

"Zadaniem naukowym tych satelitów jest robienie szerokokątną kamerą zdjęć nieba w celu precyzyjnego pomiaru jasności najjaśniejszych gwiazd. Te gwiazdy mają to do siebie, że z Ziemi trudno je dokładnie mierzyć, chociaż każdy może je zobaczyć wychodząc nocą przed swój dom przy bezchmurnym niebie" - powiedział naukowiec. Zaznaczył, że polskim badaczom chodzi m.in. o zbadanie mechanizmu konwekcji, czyli transportu energii, który odbywa się w najgorętszych gwiazdach.

"To jest ważny w przyrodzie mechanizm, i znany fizykom od ponad 100 lat, jednak do tej pory nie mamy jego precyzyjnego matematycznego opisu. Nasze badania mogą to zmienić" - wyjaśnił Schwarzenberg-Czerny.

Pulsacje gwiazd będą badane za pomocą serii satelitów BRITE, zaprojektowanych w ramach programu BRIght Target Explorer (BRITE)-Constellation, który jest realizowany w kooperacji kanadyjsko-austriacko-polskiej.

"BRITE to malutkie statki, których waga nie przekracza 5 kg, a rozmiary wynoszą 20 x 20 x 20 cm. W takim małym sześcianie umieszczone zostaną narzędzia do komunikacji, do orientacji statku w przestrzeni, baterie słoneczne, a także aparatura naukowa, czyli mały teleskop soczewkowy wyposażony w cyfrową kamerę fotograficzną" - tłumaczył naukowiec.

Według niego, umieszczona w kosmosie niewielka kamera nada się lepiej do obserwacji gwiazd niż wielkie teleskopy. "Na Ziemi zaburzenia przezroczystości atmosfery znacznie ograniczają dokładność pomiaru blasku. Mała szerokokątna kamera umieszczona w kosmosie zobaczy dostatecznie dużo jasnych gwiazd, bez zakłócającego i nieprzewidywalnego wpływu atmosfery" - zapewnił Schwarzenberg-Czerny.

Powodzenie projektu, którego koszt w wysokości ponad 14 mln zł sfinansuje Ministerstwo Nauki i Szkolnictwa Wyższego, będzie miało znaczenie także dla przyszłego udziału polskich naukowców i firm w bardziej skomplikowanych eksperymentach realizowanych przez np. Europejską Agencję Kosmiczną.

"Tak to już jest w badaniach astronomicznych, że jeśli ktoś nie zrobił żadnego kompletnego satelity, to nie powierzy mu się żadnej ważnej funkcji na terenie Europejskiej Agencji Kosmicznej" - mówił profesor. "To będzie taki nasz nieformalny egzamin maturalny - zażartował. Podkreślił też, że suma 14 mln zł to w Polsce od 1989 r. największy grant badawczy w dziedzinie astronomii i badań kosmicznych, choć tylko np. 1/600 kosztu teleskopu kosmicznego Hubble'a.

Naukowiec zapowiedział, że pierwszy polski satelita zostanie wyniesiony na okołoziemską orbitę w 2011 r., kolejny - w 2012 r. W sumie w kosmosie znajdzie się sześć satelitów BRITE: dwa kanadyjskie, dwa austriackie i dwa polskie.

Read more...

środa, 6 stycznia 2010

Skomplikowana operacja serca po raz pierwszy w Polsce

Lekarze z Uniwersyteckiego Szpitala Dziecięcego w Krakowie-Prokocimiu wszczepili sztuczną komorę serca 13-miesięcznej dziewczynce z Małopolski. Według prof. Janusza Skalskiego, który kierował zespołem lekarzy, była to pierwsza w Polsce tego typu operacja u tak małego dziecka.
To pierwsze tak małe dziecko ze sztucznym sercem. Wiem o takiej operacji u 13-latka. Polskie sztuczne komory nadają się dla pacjentów dorosłych lub nastolatków o odpowiedniej masie ciała. Operacja - przeprowadzona przez 14-osobowy zespół - trwała ok. pięciu godzin. Jej przebieg obserwowali także specjaliści z berlińskiej firmy, w której za 30 tys. euro zakupiono sztuczne serce, by w razie potrzeby służyć lekarzom radą. Największą trudnością podczas operacji było bezpieczne otwarcie klatki piersiowej, bo obawialiśmy się migotania komór.

Według lekarzy, 13-miesięczna Zuzia jest teraz w dobrym stanie: dobrze funkcjonuje jej krążenie oraz narządy wewnętrzne. Dzięki sztucznej komorze serca dziewczynka, u której stwierdzono ciężką niewydolność serca, ma teraz szansę bezpiecznie czekać na przeszczep. Od wielu miesięcy jest na pierwszym miejscu listy transplantacyjnej w Polsce.

Istnieje cień szansy, że po kilku miesiącach jej własne serce się zregeneruje. Jest taka ewentualność, którą bierzemy pod uwagę, a wcześniej nawet o tym nie myśleliśmy. Serce po odciążeniu zaczyna wyglądać nieco lepiej i dlatego w naszych głowach pojawił się może trochę nieuzasadniony optymizm, że jej serce ma szansę się zregenerować i ogromnie tego życzymy temu dziecku, bo nie ma lepszego serca niż własne.
Dziecko już rok temu przeszło pierwszą operację z powodu ubytku w przegrodzie międzykomorowej serca. Równolegle rozwinęła się u niej ciężka niewydolność serca.

Koszty zakupu sztucznego serca w większości sfinansowała Fundacja Radia ZET. Koszty operacji i leczenia dziewczynki będą pokryte ze środków Narodowego Funduszu Zdrowia.

Read more...