f546519a9f72618bb5b13e65a09ad44a

Blog naukowo-techniczny

piątek, 18 grudnia 2015

Najciekawsze zastosowania geolokalizacji

Geolokalizacja wkracza coraz śmielej w kolejne dziedziny naszego życia. Technologie związane z ustalaniem pozycji w przestrzeni wykorzystywane są już nie tylko w wojskowości czy transporcie, ale także w rozrywce, biznesie czy marketingu. Najczęściej geolokalizacja kojarzy się z systemem GPS (Global Positioning System), który został stworzony do lokalizowania obiektów z użyciem współrzędnych geograficznych na podstawie sygnałów z satelitów.

Coraz częściej wykorzystywana jest również lokalizacja GSM. Nic dziwnego, skoro już 51% populacji świata, czyli 3,5 mld osób, używa telefonów komórkowych, a liczba ta stale rośnie. W 2015 roku liczba użytkowników telefonii mobilnej powiększyła się o 185 mln, czyli o 5%. Dokładność geolokalizacji w tym przypadku zależy od liczby stacji bazowych na obszarze, w którym znajduje się obiekt. 

1. Smart City, czyli inteligentne miasta

Okazuje się, że już połowa ludności świata mieszka w miastach, a 600 spośród tych miast jest na tyle dużych, że w sumie wytwarzają 60% globalnego produktu krajowego brutto. Coraz większe zaludnienie terenów zurbanizowanych wiąże się z koniecznością wdrożenia nowych technologii, które ułatwią zarządzanie tak ogromnym i skomplikowanym organizmem. Z tego właśnie powodu pojawiła się koncepcja Smart City, w którym niebagatelną rolę odgrywają systemy oparte na geolokalizacji. Na bieżąco dostarczane są informacje potrzebne do zarządzania inteligentnym miastem i do zapewniania efektywnych usług miejskich, np. w obszarze transportu czy udrażniania ciągów komunikacyjnych.

W koncepcji Smart City z geolokalizacji powszechnie korzystają Inteligentne Systemy Transportowe (ITS), które nie tylko pomagają optymalizować ruch uliczny, ale także informują mieszkańców o utrudnieniach na drogach i proponują alternatywne trasy przejazdu. Tego typu systemy mogą nawet budzić wcześniej mieszkańców, żeby z powodu utrudnień nie spóźnili się do pracy.

Dobrym przykładem wdrażania koncepcji Smart City jest Montreal. Miasto to zdecydowało się na wykorzystanie technologii polskiej firmy Comarch. Tutaj ważnym elementem jest aplikacja mobilna oraz iBeacony. Aplikacja ta działa w dwóch segmentach: transportowym (pomaga poruszać się po Montrealu, wspomaga planowanie przejazdów transportem miejskim, śledzi zmiany w trasach metra i autobusów, przewiduje opóźnienia w dotarciu do wyznaczonego celu) oraz komercyjnym (mieszkaniec otrzymuje oferty handlowe kontekstowo dobrane do czasu i miejsca pobytu).

2. Geolokalizacja w wojsku

Nowoczesna armia nie może funkcjonować bez systemów pozwalających na lokalizację obiektów. W wojsku, obok wysokich umiejętności samych żołnierzy, coraz bardziej liczy się także zaawansowana technologia. Rakiety, statki, łodzie podwodne, lotnictwo, systemy naprowadzania i systemy obronne bazują na geolokalizacji. Dzięki lokalizacji wojskowi mogą dokładnie ustalać położenie własnych jednostek na polu walki, obliczać prędkość poruszania się platform bojowych i ustalać czas potrzebny, aby dotrzeć na wyznaczone pozycje. Coraz częściej geolokalizacja jest także wykorzystywana do monitoringu pozycji wartowników.

Zastosowanie geolokalizacji w wojsku jest dość szerokie, szczególnie jeśli chodzi o namierzanie wroga. Może do tego posłużyć nawet zwykła fotografia, czego dowodem jest działanie analityków amerykańskiego lotnictwa. Oto jeden z przykładów: dzięki temu, że jeden z bojowników Państwa Islamskiego zamieścił na Facebooku zdjęcie z geolokalizacją, wykonane w centrum dowodzenia terrorystów, analitycy szybko namierzyli położenie budynku, który został zbombardowany. Wszystko to za sprawą nagłówka EXIF w pliku zdjęcia oraz modułu GPS w telefonie.

3. Geolokalizacja w bankowości

Już w 2012 roku firma analityczna Deloitte w swoim raporcie „Doświadczenia klienta w relacji z bankami w Polsce” wskazywała na potrzebę większego wykorzystania geolokalizacji w bankowości, upatrując w tym sposób na zdobycie przewagi konkurencyjnej na trudnym rynku. Z jednej strony miał to być sposób na lepsze poznanie klienta, a z drugiej – skuteczne dopasowanie oferty do jego potrzeb i do jego aktualnej sytuacji. 

Rozwijająca się obecnie niezwykle dynamicznie bankowość mobilna jest doskonałą okazją do wykorzystania geolokalizacji w bankowości. Jak wynika z danych TNS Polska, już 58% Polaków posiada smartfony i korzystają z nich przeciętnie 3 godziny dziennie, a 21% używa bankowości mobilnej. 

Przykładem może być aplikacja IKO, udostępniona przez PKO BP, w której klient, przełączając się na mapę, uzyskuje informacje o własnym aktualnym położeniu oraz może wyszukać placówki PKO BP, bankomaty czy najbliższe punkty handlowe, w których zapłaci IKO. Podobnie działa aplikacja mobilna Credit Agricole, która ponadto wykorzystuje geolokalizację do wskazania najbliższych punktów handlowych, w których klient może uzyskać rabaty i w których przygotowano specjalne promocje. Natomiast aplikacja Banku Zachodniego WBK, oprócz wspomnianych powyżej opcji, pozwala także lokalizować punkty handlowe, w których klient już wcześniej dokonywał płatności kartą.
4. Nawigacja samochodowa 

Niewątpliwie najpowszechniej geolokalizacja wykorzystywana jest w nawigacji samochodowej. Pierwsza nawigacja została wprowadzona przez firmę TravTek w latach 90., miała jednak liczne ograniczenia. Dopiero rok 2000 przyniósł o wiele lepsze modele i rozpoczął erę upowszechniania się nawigacji samochodowych. Dziś tradycyjny model, określany jako PND, coraz częściej przegrywa ze smartfonami wyposażonymi w moduły GPS. 

Berg Insight w swoim raporcie zauważa, że jeszcze w 2010 roku sprzedano w Europie i w Ameryce Północnej 38 mln sztuk nawigacji PND, w roku 2013 – 22 mln sztuk, a w 2019 roku może to być już tylko 10 mln sztuk. Taka sytuacja nie powinna dziwić, ponieważ coraz częściej smartfon pozwala nie tylko korzystać z map offline, ale także umożliwia uzyskanie aktualnych informacji na temat sytuacji na drodze. Nie oznacza to jednak, że nawigacja PND odchodzi zupełnie do lamusa. Producenci coraz intensywniej rozwijają segment systemów geolokalizacji ściśle zintegrowanych z samochodami. W rezultacie coraz częściej mówi się już nie o nawigacjach, ale o urządzeniach towarzyszących codziennej podróży. 

Przykładem mogą być rozwiązania, nad którymi pracuje firma TomTom. W założeniu będą to urządzenia, które nie tylko bazują na szybkich algorytmach obliczania trasy, podają aktualne informacje o płynności ruchu, ale także dbają o bezpieczeństwo (zmniejszenie prędkości przez jeden z samochodów jadących w kolumnie na autostradzie powoduje automatyczne zwolnienie innych aut z tyłu). Urządzenia opracowywane przez TomTom będą także bezpośrednio komunikowały się z komputerem samochodu, płaciły za parkingi, będą wyszukiwały najniższe ceny paliwa w okolicy i będą pokazywały aktualną prognozę pogody.

5. Geotargetowanie w marketingu

Geolokalizacja odgrywa również coraz większą rolę w targetowaniu reklam. Dobrym przykładem jest marketing SMS, który umożliwia prowadzenie działań reklamowych, podobnych do tych realizowanych za pośrednictwem aplikacji mobilnych. SMS ma jednak tę przewagę nad aplikacjami, że nie trzeba niczego instalować i nie jest potrzebny dostęp do internetu.

„Dzięki geotargetowaniu SMS wiadomości wysyłane są do konkretnych odbiorców, którzy przebywają w pobliżu danego sklepu, restauracji, galerii handlowej lub innego punktu handlowo-usługowego“ – mówi Andrzej Ogonowski, dyrektor PR i Marketingu w SMSAPI.pl, platformy do masowej wysyłki SMS-ów. – „To niezwykle skuteczny sposób na wywołanie impulsu zakupowego u klienta, który znajduje się w okolicy wybranego sklepu. W tym przypadku do lokalizacji wykorzystywane są stacje przekaźnikowe BTS, co umożliwia dotarcie z dokładnością do kilkudziesięciu metrów“. – dodaje Ogonowski. 

Geolokalizacja pozwala na dystrybucję przekazu marketingowego do starannie wyselekcjonowanych odbiorców, co jest działaniem bardziej efektywnym niż wysyłanie ogromnej liczby wiadomości, które i tak w dużej części trafią do osób niezainteresowanych.

Liczne przykłady pokazują, w jak wielu różnych dziedzinach życia mamy obecnie do czynienia z systemami bazującymi na identyfikowaniu położenia obiektu w przestrzeni. Inne technologie stosowane do lokalizacji to m.in. bezprzewodowa transmisja danych Wi-Fi (wykorzystanie triangulacji na bazie sygnałów z Access Pointów), iBeacony (położenie ustalane względem markera BLE), RFID (obiekt rozpoznawany za pomocą radiowego sygnału identyfikującego), NFC (transmisja realizowana, gdy urządzenie znajdzie się w pobliżu tagu) czy geolokalizacja na podstawie IP komputera. Ilość tych obszarów będzie się zapewne zwiększać, ponieważ systemy geolokalizacji stają się coraz bardziej zaawansowane.

Read more...

sobota, 14 listopada 2015

Miliardy euro na technologie przyszłości

Europa chce być liderem w rozwoju technologii przyszłości. To jeden ze sposobów na rozwój gospodarczy państw europejskich i zwiększenie konkurencyjności Europy wobec całego świata na najbliższe dekady. Dlatego Komisja Europejska poświęci 2,7 miliarda euro na rozwój wizjonerskich interdyscyplinarnych projektów naukowych w obszarze technologii przyszłości (Future & Emerging Technologies – FET).

Grafen, badania nad ludzkim mózgiem, sztuczna inteligencja, informatyka i telekomunikacja to tylko kilka z wielu tematów, których dotyczyć będzie spotkanie informacyjne poświęcone technologiom przyszłości (Future & Emerging Technologies). Na wydarzenie zaprasza Krajowy Punkt Kontaktowy dla programu ramowego Horyzont 2020.

Dzień informacyjny o technologiach przyszłości to okazja dla naukowców, instytucji naukowych, przedsiębiorców oraz firm do poznania i zaangażowania się w projekty technologii jutra. Wydarzenie odbędzie się we wtorek, 17 listopada br., o godz. 10:00, w Instytucie Podstawowych Problemów Techniki Polskiej Akademii Nauk przy ul. Pawińskiego 5B w Warszawie.

– Nasi eksperci oraz przedstawiciele Komisji Europejskiej opowiedzą, jak nawiązać cenne kontakty, starać się o finansowanie dla projektu i zbudować międzynarodowe konsorcjum dla realizacji projektu – mówi Zygmunt Krasiński, dyrektor Krajowego Punktu Kontaktowego dla programu ramowego Horyzont 2020 – instytucji, która wspiera naukowców i firmy w staraniach o finansowanie z programów ramowych.

Na projekty związane z rozwojem technologii przyszłości w programie ramowym Horyzont 2020 Komisja Europejska przeznaczyła aż 2,7 mld euro. Najbliższe konkursy startują 8 grudnia 2015 r., a ich budżet wynosi ponad 300 mln euro (w latach 2016-2017). Sztandarowymi projektami w tym obszarze są badania nad grafenem i wdrożenie tego materiału do wykorzystania w przemyśle, a także badania nad ludzkim mózgiem dążące do stworzenia sztucznej inteligencji. Projekt wykorzystania superkomputera do osiągnięcia najlepszych na świecie wyników w zakresie mocy obliczeniowej czy konkursy na zupełnie nowe idee to także działania w obszarze technologii przyszłości, o których będzie mowa podczas spotkania.

Read more...

poniedziałek, 7 września 2015

Inwestycje w badania i rozwój polskich firm IT

W Polsce stopniowo wzrasta konieczność inwestycji w prace badawczo-rozwojowe. Takie dane płyną z raportu „Opłacalność inwestowania w badania i rozwój” firmy PwC i Narodowego Centrum Badań i Rozwoju.  Większe zaangażowanie firm w badania i rozwój to środek na tworzenie innowacyjnej gospodarki – twierdzą eksperci.

Według danych zawartych w raporcie, największy odsetek przychodów z wyników prac B+R w przychodach operacyjnych widoczny jest w sektorach: chemicznym i farmaceutycznym (47,33%), produkcji pojazdów i maszyn (45,66%) oraz IT (25,24%). Obecnie, aby gospodarka danego kraju mogła być konkurencyjna na tle pozostałych państw oraz bezpieczna przed cyberatakami szczególny nacisk powinien zostać położony właśnie na rozwój innowacji w sektorze IT – mówi Prof. Konrad Świrski, Prezes Zarządu Transition Technologies – polskiej Spółki IT, która posiada status Centrum Badawczo – Rozwojowego. W 2014 roku udział przychodów wygenerowanych w wyniku działań badawczo-rozwojowych wyniósł średnio 16,62%. W porównaniu z rokiem 2008 jest to wzrost o 7 punktów procentowych, co świadczy o wzroście inwestycji w tym obszarze, aczkolwiek bardzo powolnym.
rozwój polskich firm IT

B+R w Polsce
Polska pod względem inwestycji w badania i rozwój w porównaniu z innymi państwami nie jest liderem. W rankingu Bloomberg’a z 2014 roku „Most innovative in the World: Countries” Polska znalazła się na 24 miejscu na 50 krajów zbadanych pod względem innowacyjności. Niemniej w ostatnim czasie pojawił się jednak wyraźny trend zainteresowania biznesu działaniami badawczo-rozwojowymi o czym świadczy wzrost inwestycji w tym obszarze. Według danych pochodzących z raportu „Opłacalność inwestowania w badania i rozwój” w 2014 roku, wzrost ten osiągnął poziom 41%. - Dla polskich przedsiębiorców prace badawczo -rozwojowe stają się podłożem do zainicjowania prac nad nowym produktem. Jednakże z drugiej strony nadal wiele przedsiębiorstw nie rozwija tego obszaru aktywności. Za główną przyczynę możemy uznać koszty, jakie wiążą się z tego typu działaniami – mówiąc wprost nie każdą firmę na to stać. Pojawiają się również problemy natury prawnej. Należy jednak wspomnieć, że w 2013 roku wydatki firm na działalność badawczo-rozwojową wzrosły o 17,8% w porównaniu z rokiem 2012. Z drugiej strony, jeżeli polskie firmy chcą się rozwijać, muszą inwestować w badania. Nasza firma od 5 lat posiada status Centrum Badawczo-Rozwojowego. Prowadzimy badania w obszarze m.in. przemysłu, energetyki, czy biomedycyny. Tworzymy innowacyjne rozwiązania w zakresie diagnostyki chorych na nowotwory, osób niewidomych i słabowidzących oraz zaawansowane technologie usprawniające przemysł wytwórczy. Tworzymy technologie jutra.  – mówi prof. Konrad Świrski z firmy Transition Technologies. Co więcej, z badania przeprowadzonego na potrzeby raportu PwC i NCBR, wynika, że najwięcej na badania i rozwój wydają przedsiębiorstwa działające od 10-15 lat. Ich wydatki stanowiły 47% wydatków poniesionych w 2014 roku.

Korzyści dla gospodarki
– Wspomniany wzrost inwestycji wśród firm z obszaru IT wiąże się ze wzrostem świadomości wśród właścicieli firm oraz potrzebie konkurencyjności na rynku. Wiemy o tym, gdyż nasza firma w 2014 według rankingu TOP 200 Computerworld wydała najwięcej na badania i rozwój z pośród polskich firm IT. Aktualnie, innowacyjność rozwiązań i produktów jest elementem wyróżniającym i znakiem rozpoznawczym wielu firm – dodaje prof. Świrski. Ponadto, pomiędzy rokiem 2011 a 2013 łączne wydatki wewnętrzne przedsiębiorców z sektora przetwórstwa przemysłowego na B+R wzrosły aż o 68%. Ma to swoje realne odzwierciedlenie również w zatrudnieniu, co korzystanie wpływa na koniunkturę gospodarczą, przyczyniając się tym samym do obniżenia poziomu bezrobocia i wzrostu atrakcyjności krajowej gospodarki dla przyszłych inwestorów. O powyższych trendach świadczy fakt, że coraz więcej młodych ludzi z południa Europy (Włochy, Hiszpania) podejmuje w Polsce stałą pracę. Ponadto, wzrost inwestycji w B+R wiąże się z pracą nad nowymi produktami i rozwiązaniami, a następnie ich komercjalizacją. Oprócz wzrostu inwestycji w prace badawczo-rozwojowe istotne jest także zdobywanie doświadczenia oraz wypracowanie skutecznych metod i sposobów urynkowienia efektów swoich działań.

Bodźce do działania 
W celu skutecznego pobudzenia inwestycji w badania i rozwój konieczne jest podjęcie szeregu działań zarówno systemowych z zakresu prawa krajowego jak również odpowiedniej edukacji przedsiębiorców w zakresie korzyści, jakie można osiągnąć dzięki inwestowaniu w działalność badawczo-rozwojową. Według raportu „Opłacalność inwestowania w badania i rozwój” do czynników motywujących przedsiębiorstwa do podjęcia działań w zakresie B+R można zaliczyć: korzystniejsze przepisy prawne, szczególnie posiadanie ulg podatkowych z tytułu prowadzenia prac B+R, zwiększenie możliwości pozyskania bezzwrotnych dotacji na projekty badawczo-rozwojowe. Kolejną zachętą do prac w zakresie B+R jest większa elastyczność i dynamika w działaniu jednostek naukowych i badawczych oraz możliwość współpracy z odpowiednio wykwalifikowaną kadrą ekspertów i specjalistów. Istotnym motywatorem może być także szybki zwrot zainwestowanych środków.

Przy aktualnym światowym tempie wzrostu gospodarczego oraz podwyższonym ryzyku ataków cybernetycznych, inwestycje w badania i rozwój firm z zakresu IT są koniecznością. Większe zainteresowanie przedsiębiorstw pracami B+R przyczynia się do wzrostu konkurencyjności na rynku wewnętrznym oraz zagranicznym. Ponadto, ma swoje korzystne przełożenie na poziom zatrudnienia. Ograniczenia w postaci przepisów prawa rachunkowego i podatkowego (ulgi podatkowych) oraz brak dotacji powinny w sposób szybki i sprawny zostać rozwiązane przez rząd.

Read more...

poniedziałek, 27 lipca 2015

Technologia Intela rusza na ratunek pszczołom

Populacja pszczół na całym świecie spada, a istniejące kolonie są zagrożone wyginięciem. To duży problem, zwłaszcza jeśli weźmiemy pod uwagę fakt, że pszczoły odpowiadają za zapylenie jednej trzeciej roślin uprawnych. Badania nad zdrowiem pszczół są prowadzone od lat, ale dzięki współpracy Intela i CSIRO, australijskiej agencji rządowej specjalizującej się w badaniach naukowych, mogą one nabrać tempa. W oparciu o technologię Intela stworzono specjalny system, pozwalający na monitorowanie zachowań owadów oraz analizę środowiska, w którym żyją. Sercem systemu jest miniaturowa platforma Intel Edison i czujniki tak małe, że bez problemu mieszczą się na grzbiecie pszczoły.

Technologia Intela odegra kluczową rolę w monitorowaniu stanu zdrowia pszczół, które już od kilku lat spędza sen z powiek naukowcom na całym świecie. System oparty jest na miniaturowej platformie Intel Edison, niewiele większej od znaczka pocztowego.
Platforma Intel Edison

Miniaturowy komputer zaprojektowany przez Intela ma być umieszczony wewnątrz ula. Mikroczujniki natomiast znajdą się na grzbietach pszczół zamieszkujących dany ul. Komunikacja między platformą Intel Edison a czujnikami będzie odbywać się w oparciu o RFID – technologię wykorzystującą do przesyłu danych fale radiowe. Dane z mikrokontrolerów umieszczonych na owadach będą przechwytywane w momencie zbliżania się pszczół do platformy Intel Edison. Platforma będzie ponadto zbierać i analizować dane z otoczenia, w tym wilgotność i temperaturę powietrza oraz promieniowanie słoneczne. Platforma Intel Edison, w zestawie z mikroczujnikami, będzie dystrybuowana przez CSIRO partnerom z całego świata w ramach programu Global Initiative for Honey bee Health (GIHH).

Informacje gromadzone dzięki platformie Intel Edison umieszczonej w ulu wysyłane są do serwisu CSIRO Data Access Portal. Na ich podstawie badacze budują modele 3D wizualizujące ruch pszczół w ich środowisku oraz pozwalają śledzić reakcje owadów na stresory, w tym pestycydy i zanieczyszczenia wody. 

Metodologia ta została już wdrożona przez CSIRO w Hobart w Tasmanii, gdzie mikrokontrolery umieszczono na grzbietach 10 000 pszczół. Obecnie australijska organizacji poszukuje kolejnych ośrodków, z którymi będzie mogła nawiązać współpracę.

- Na całym świecie giną kolonie pszczół i wciąż nie potrafimy jednoznacznie określić przyczyny – mówi profesor Paulo de Souza z CSIRO. – Ze względu na globalny charakter tego problemu dostrzegliśmy potrzebę opracowania metodyki, która będzie prosta do wdrożenia dla każdego naukowca. W ten sposób możemy porównywać dane z całego świata i wspólnie badać zdrowie pszczół. Ten zjednoczony wysiłek jest fantastycznym przykładem funkcjonalności Internetu rzeczy – dodaje Paulo de Souza.  

Projekt wdrożony przez Intela we współpracy z CSIRO jest jednym z dowodów na to, jak sformułowane w 1965 roku prawo Moore może być wykorzystane na rzecz rozwoju nauki.
- Gordon Moore, jeden ze współzałożycieli Intela, stwierdził, że z każdym rokiem liczba tranzystorów w chipie komputerowym będzie się podwajać. Prognoza ta stała się siłą napędową nie tylko dla rozwoju przemysłu, ale również dla badań naukowych.  – mówi David Mellers z Intel Technology. – Tym samym wdrażane rozwiązania są nie tylko osiągnięciem z perspektywy technologii, ale również wzrostu wartości ekonomicznej oraz społecznej – dodaje.

Read more...

czwartek, 25 czerwca 2015

Paliwo przyszłości produkowane w ośrodku badawczym w Dreźnie

Ośrodek badawczy w Dreźnie rozpoczął produkcję syntetycznego oleju napędowego na bazie CO2. Etap rozruchu wytwórni trwał tylko cztery miesiące. Od kilku dni ośrodek badawczy w Dreźnie produkuje pierwsze partie wysokowartościowego oleju napędowego neutralnego pod względem zawartości CO2.

By zademonstrować jakość i przydatność nowego paliwa, Federalna Minister Oświaty i Badań Naukowych prof. dr Johanna Wanka, wlała wczoraj pierwsze pięć wyprodukowanych litrów do baku swojego służbowego Audi A8 3.0 TDI clean diesel quattro. „Syntetyczny olej napędowy wytwarzany z użyciem dwutlenku węgla, to wielki sukces badań nad zrównoważonym rozwojem. Jeśli uda nam się na szeroką skalę użyć CO2 jako surowca, w ogromnym stopniu przyczynimy się do ochrony klimatu, oszczędności zasobów i przygotujemy drogę dla „Green Economy” – powiedziała Minister Wanka.

Drezdeńskie przedsiębiorstwo energetyczne „sunfire” jest w tym projekcie partnerem Audi i zarządcą wytwórni. Zakład pracuje według zasady Power-to-Liquid (PtL), wykorzystując ekologiczny prąd do produkcji płynnego paliwa. Jedyne potrzebne w tym procesie surowce to woda i dwutlenek węgla, którego dostawcą jest biogazownia. Wkrótce jednak, część dwutlenku węgla pozyskiwana będzie z powietrza, metodą opracowaną przez innego partnera technologicznego koncernu z Ingolstadt, firmę Climeworks z Zurychu.

Dla Reinera Mangolda, kierownika ds. zrównoważonego rozwoju produktów Audi, Audi ediesel i Audi efuels to istotne uzupełnienie elektromobilności: „Wprowadzając do produkcji Audi ediesel, rozwijamy kolejne, bazujące na dwutlenku węgla paliwo, które umożliwi długodystansowe, nie oddziaływujące na klimat, przemieszczanie się. Użycie CO2 jako surowca, jest szansą nie tylko dla przemysłu samochodowego w Niemczech. Zasadę tą zaszczepić można zarówno w innych branżach, jak i w innych państwach.”

Produkcja Audi e-diesel odbywa się kilku etapach: najpierw, elektroliza wysokotemperaturowa rozdziela podgrzaną i zamienioną w parę wodę na wodór i tlen. Proces ten, przeprowadzany w temperaturze powyżej 800 stopni Celsjusza, jest bardziej wydajny niż konwencjonalne technologie, między innymi dzięki możliwości odzyskiwania ciepła. Elektroliza wysokotemperaturowa może być również eksploatowana dynamicznie i dzięki temu może stabilizować sieć w momentach szczytów produkcyjnych energii ekologicznej.

W dwóch kolejnych etapach, wodór reaguje z CO2 w reaktorach syntezy, ponownie pod ciśnieniem i w wysokiej temperaturze. Wynikiem reakcji jest ciecz, Blue Crude, składająca się z długołańcuchowych związków węglowodorowych. Efektywność tego procesu - od odnawialnego prądu do płynnego węglowodoru - jest bardzo wysoka i wynosi 70 procent. Podobnie jak naturalną ropę naftową, Blue Crude uszlachetnia się w procesie rafineryjnym, aż otrzymuje się produkt końcowy, Audi e-diesel. To syntetyczne paliwo nie zawiera siarki i aromatów oraz charakteryzuje się wysoką liczbą cetanową. Jak wykazały testy laboratoryjne prowadzone przez Audi, nadaje się do mieszania z tradycyjnym olejem napędowym, a według wszystkich przewidywań, wkrótce będzie można go używać również jako samodzielnego paliwa.

Niemieckie Federalne Ministerstwo Oświaty i Badań Naukowych wspiera rozpoczęty w maju 2012 roku projekt firmy „sunfire”. Tradycyjne, pierwsze wbicie łopaty pod budowę zakładu w Dreźnie-Reick nastąpiło w lipcu 2013 r., a już 14 listopada 2014 r. uruchomiono ośrodek. W najbliższych miesiącach, możliwości produkcyjne powinny rozwinąć się do ponad 3000 litrów Audi e-diesel. Audi jest wyłącznym i jedynym w branży motoryzacyjnej partnerem firmy „sunfire”.

Read more...

poniedziałek, 12 stycznia 2015

Plusy i minusy nowelizacji ustawy o ochronie konkurencji i konsumentów

Nowelizacja Ustawy o ochronie konkurencji i konsumentów, która wejdzie w życie  18 stycznia 2015 r.,  będzie przewidywała zwiększenie uprawnień prezesa Urzędu Ochrony Konkurencji i Konsumentów oraz zwiększenie sankcji dla przedsiębiorców za łamanie przepisów.

Nowelizacja wprowadza m.in. nową instytucję jaką jest kara grzywny do 2 000 000 zł dla osób zarządzających przedsiębiorstwami, które umyślnie weszły w porozumienie kartelowe. Ustawowa definicja „osoby zarządzającej” stanowi przy tym katalog otwarty, co może powodować wątpliwości przy stosowaniu tego przepisu. Przy ustalaniu wysokości kary przewidziano przejście z kryterium przychodu na kryterium obrotu, co należy ocenić pozytywnie. Takie rozwiązanie powinno bowiem urealnić podstawę naliczania nakładanych kar poprzez eliminację przychodów występujących okazjonalnie. Wydłużono także okres przedawnienia w sprawach praktyk ograniczających konkurencję z 1 roku do 5 lat.

Nowela wprowadza zmiany dotyczące wydłużenia dopuszczalnych terminów postępowań. Przewiduje także rozszerzenie uprawnień kontrolnych UOKiK oraz wprowadza szereg uprawnień, które upoważniają Urząd do głębokiej ingerencji w stosunki gospodarcze, m.in. poprzez nakazanie zmiany warunków umów czy zapewnienie dostawy określonych produktów lub świadczenia określonych usług na niedyskryminacyjnych warunkach.

Nowelizacja ustawy przewiduje również możliwość publicznego ostrzegania przez prezesa UOKIK o podejrzeniu naruszania zbiorowych interesów konsumentów przez przedsiębiorcę, jeśli – nieuczciwa w ocenie UOKiK – praktyka przedsiębiorcy (skierowana do szerokiego kręgu odbiorców) może narazić konsumentów na znaczne straty finansowe lub niekorzystne skutki.

W przypadku gdy przedsiębiorca samodzielnie poinformuje prezesa UOKiK o stosowaniu niedozwolonej praktyki, nowelizacja ustawy przewiduje możliwość złagodzenia kary lub nawet odstąpienia od jej wymierzenia (tzw. leniency). Wprowadzono także instytucję dobrowolnego poddania się karze pieniężnej, która umożliwia obniżenie kary o 10%. Kierunek zmiany należy ocenić pozytywnie, jednak obniżka kary jedynie o 10% wydaje się zbyt mało zachęcająca i prawdopodobnie spowoduje, że instytucja ta będzie stosowana jedynie w przypadkach ewidentnych naruszeń.

Read more...

środa, 5 września 2012

Technologia wydruku 3D

Innowacyjna technologia wydruku 3D to nieograniczony pakiet możliwości. Atrakcyjność wizualna ulotek, biurowych gadżetów, fototapet, a także wszelkich treści marketingowych, gwarantuje stuprocentową satysfakcję i zadowolenie klienta, a w przypadku kampanii reklamowych – ich niepodważalną efektywność. Trójwymiar na kartce papieru sprawia iście piorunujące wrażenie.

W dobie różnokolorowych wydruków, naprawdę niewiele może nas jeszcze zaskoczyć. Jeśli obraz jest wyraźny, kolorystyka bujna oraz intensywna, to tylko ta, która się zmienia, animuje i zaczepia trójwymiarowym efektem, ma szanse szczególnie zwrócić na siebie uwagę.

Siła „efektów specjalnych”

Używając odpowiedniej techniki poligraficznej, możemy uzyskać naprawdę interesujące realizacje. Tworząc trójwymiar, grafika umieszczana jest na kilku warstwach i dzięki temu otrzymuje się oczekiwane wrażenie przestrzeni. Animacja z kolei, pozwala uzyskać nawet do kilkunastu faz ruszającego się obrazu. Tzw. Flip, to obrazy pojawiające się na zmianę, a dzięki zoom-owi, możemy otrzymać efekt przybliżania i oddalania obrazu na przemian.

Forma przekazu wydruku 3D znacznie pobudza zmysł wzroku, przez co oddziałuje na „widzów” bezpośrednio. Wywołuje emocje, rozwija wyobraźnie - zdecydowanie nie pozostaje obojętna i niezauważona, dlatego też z powodzeniem może być wykorzystywana na etapie tworzenia nośników reklamowych. Pomimo że, technologia ta znana jest od lat, dopiero dzięki osiągnięciu pełnej doskonałości staje się powszechnie dostępna i w pełni ukazuje swój potencjał.

Proces tworzenia

Do stworzenia efektów trójwymiarowych, możemy wykorzystać zarówno druk małoformatowy, jak i wielkoformatowy oraz technologie cyfrowe. Materiał używany do druku to tzw. folia soczewkowa 75 LPI lub 100 LPI (ilość soczewek na 1 cal), na której wierzchu znajduje się siatka pionowych lub poziomych soczewek, które to właśnie odgrywają bardzo istotną rolę.

Z stricte technicznego punktu widzenia, proces wydruku jest dosyć skomplikowany. - Przede wszystkim, myśląc o druku 3D musimy brać pod uwagę specjalne drukarki – analogicznie nazwane po prostu drukarkami 3D. Inne, nie mają opcji uzyskania interesującego nas trójwymiaru. Drukowanie rozpoczyna się, kiedy drukarka rozprowadzi cienką warstwę proszku. Następnie, głowica atramentowa w odpowiednie miejsca dostarcza środek zlepiający. Zanim otrzymamy efekt końcowy, następuje jeszcze ostatni mechanizm - tłok obniża się o grubość warstwy – po czym cały proces powtarza się. Gdy drukowanie dobiega końca, obiekt wydruku jest otoczony i wypełniony proszkiem, a zaraz po jego usunięciu, uzyskujemy gotowy przedmiot – tłumaczy Dariusz Hartmann, właściciel sklepu internetowego E-atramenty.pl.

Read more...

poniedziałek, 3 września 2012

Nowy FortiClient firmy Fortinet - system bezpieczeństwa dla platform iOS i Android

Fortinet wprowadził nową wersję FortiClient -oprogramowania do ochrony klienckich punktów końcowych z systemem iOS i Android. Rozwiązanie wzmocni bezpieczeństwo firmowej sieci przed zagrożeniami wynikającymi z coraz popularniejszego wśród młodych pracowników trendu BYOD.

FortiClient dla smartfonów z systemem Android pozwala uruchomić VPN zarówno w oparciu o SSL, jak i IPSec nawiązując kontakt z FortiGate. Połączenie jest w pełni szyfrowane i cały ruch jest przesyłany za pośrednictwem bezpiecznego tunelu.  FortiClient dla urządzeń z systemem iOS zapewnia filtrowanie treści internetowych oraz funkcjonalność VPN w oparciu o protokół SSL. Rozwiązanie zostało przystosowane również do ochrony połączeń przez iPad’y.

Strategia bezpieczeństwa Fortinet dotycząca modelu BYOD ma na celu ochronę firmowej sieci, za pomocą uwierzytelniania urządzeń, kontroli zachowań użytkowników w sieci oraz wprowadzeniem restrykcyjnych ograniczeń w zakresie dostępu do danych. Całość opiera się na połączenie sześciu kluczowych funkcjonalności:

1. szeroka gama funkcjonalności dla połączeń LAN i WAN, które zapewnia cała rodzina wysokowydajnych urządzeń FortiGate

2. brak licencji typu "per-user" lub "per-seat" oznacza, że klienci mogą dodawać nowe urządzenia do sieci bez ponoszenia dodatkowych opłat licencyjnych. Ta funkcja staje się bardzo istotna, kiedy liczba urządzeń podłączonych do sieci podwaja się lub potraja w momencie, gdy użytkownicy używają swoich prywatnych smartfonów i tabletów w pracy

3. kompleksowy, scentralizowany system zarządzania

4. zintegrowane bezprzewodowe kontrolery we wszystkich urządzeniach FortiGate ułatwiające inspekcję ruchu, wykrywanie nielegalnych punktów dostępowych (AP) i zarządzanie pasmem.

5. wbudowane Wi-Fi do ochrony LAN w niektórych modelach FortiGate zmniejszające potrzebę tworzenia oddzielnego punktu dostępu bezprzewodowego

6. dwuskładnikowe uwierzytelnianie w oparciu o soft-tokeny dla mobilnych użytkowników wirtualnych sieci prywatnych (VPN)

Wyzwania związane z bezpieczeństwem urządzeń mobilnych nie są nowością, jednak model BYOD utrudnia firmom egzekwowanie polityki bezpieczeństwa wśród pracowników. Szeroki zakres rozwiązań bezpieczeństwa Fortinet, w tym kontrola aplikacji, nowa generacja firewalli, zapobieganie włamaniom i wyciekom danych, ochrona przed szkodliwym oprogramowaniem i spamem gwarantuje przedsiębiorstwom, że przepływ informacji przychodzących oraz wychodzących z urządzeń przenośnych jest chroniony, zarówno w sieciach LAN jak i WAN. Rozwiązania Fortinet obsługują różne warianty ochrony smartfonów i tabletów, obejmujące wsparcie dla zarządzania urządzeniami mobilnymi (MDM), wirtualnego pulpitu i klientów VPN.

„Urządzenia mobilne znacznie zwiększają wydajność pracy, ale zapewnienie wysokiego poziomu bezpieczeństwa bez względu na rodzaj urządzenia bądź lokalizację użytkownika, jest dziś wyzwaniem dla przedsiębiorstwa," - powiedział Kevin Flynn, starszy menedżer produktu w Fortinet. – „Pomagamy wdrożyć, zarówno dużym organizacjom, jak i małym firmom, solidne infrastruktury zabezpieczeń modelu BYOD, łączące funkcje bezprzewodowe i wbudowane technologie zabezpieczeń. Dodatkowym atutem są proste i ekonomiczne warunki licencjonowania.”

Read more...