sobota, października 02, 2004

What Gates hates?

Szef MS, Bill Gates oświadczył na spotkaniu ze studentami w trakcie cyklu odczytów podróżując po Bay Area, że ma już dosyć oprogramownia szpiegującego w związku z tym MS będzie oferowal własne narzędzie do walki z nim (konkretnie z adware i spyware). Narzędzie będzie pomagało w wykrywaniu szkodliwego oprogramowania na stacjach roboczych z Windows i będzie miało regularne aktualizacje. Jeszcze nie wiadomo, czy za to narzędzie trzeba będzie zapłacić (ciekawe, ze inne oprogramowanie do usuwania szpiegów jest w wersji podstawowej bezpłatne np. AdAware). Co jeszcze MS szykuje w zakresie aplikacji "szkodników" ? Nie wiadomo, ale w 2003 zakupiło oprogramowanie antywirusowe rumińskiej firmy GeCad. Było parę wycieków (jeden z Francji) świadczących o tym, że MS testuje własne oprogramowanie antywirusowe.
Gates wskazał również na problem stosowania haseł, ludzie są zmuszeni do ich używania, ale wymyślają łatwe do zgadniecia hasła i mają kłopoty z zapamiętaniem bardziej skompilowanych haseł. Wyraził nadzieję, że w końcu upowszechni się inny sposób weryfikacji tożsamości np. smart card czy jakaś forma kontroli biometrycznej.

Dziwne podejście Microsoft

Wszyscy się dziwią stanowisku MS wobec braku reakcji na coraz nowoczesniejsze funkcje wprowadzane w przeglądarkach innych firm. Chodzi m.in. o "zakładkowy" układ stron, blokada pop-up i reklam, obsługa RSS. Firma stwierdziła, ze jedynie własciciele Windows XP z zainstalownym SP2 mogą korzystać z niektórych innowacji. Inni uzytkownicy Windows zmuszeni są do zapłacenia 99 dolarów za upgrade do XP. Dlaczego tak jest ? Odpowiedz nie jest prosta. Ale można uznać, że MS przygotowuje jedynie bazowe oprogramowanie, które inni twórcy oprogramowania mogą rozwijać, dając im tym samym wolną rękę do wprowadzenia własnych roszerzeń. Jest to o tyle prawdopodobne ponieważ MS trwa na stanowisku, że IE to INTEGRALNA część systemu operacyjnego a nie samodzielny produkt.
Widzimy, że firmy trzecie robią wszystko aby ich przeglądarki były jak najbardziej niezależne od platformy (realizując zasadę implementacji standardu W3C). IE jest ściśle związany z systemem operacyjnym. Ma to dobre i złe strony. Złe dlatego, że błąd zapoczątkowny w przeglądarce rozprzestrzenia się do systemu.

piątek, października 01, 2004

Uwaga! MS chce mieć XML na własność

Uwaga! MS chce mieć XML na własność
3 lutego 2004 MS uzyskał w amerykańskim biurze patentowym patent "XML script automation", następnie zgłosiła to w Europie i N. Zelandii. Jest to pewne zagrożenie mimo, że standard XML jest bezpłatny. Wcześniej zgłoszone dwa inne patenty. Widocznie MS chce ochrony patentowej dla jak najwięcej implementacji programowych które zawierają elementy XML. Powód? Podejrzenie, że IBM chcąc migrować Linux na stacje robocze (desktop) i będzie chciał współpracować z Word-em np. za pośrednictwem XML.
Obecny patent zgłoszony do urzędu już w grudniu 2000 mówi o XML script automation - "systemy, metody oraz struktury danych do opakowania skryptów napisanych w różnych językach w jednym pliku". Mało kto sobie zdaje sprawę, że mowa tu formacie wsc, który służy do umieszczenia skryptów w jednym pliku. Rzecznik MS potwierdza, że XML standard jest nadal bezpłatny. Krytycy przyznają, że MS nie próbuje opatentować samego XML, ale aspekty i możliwe sposoby użycie XML tak, że w końcu praktycznie nie będzie możliwości zastosowania XML bez groźby naruszenia patentu.

Hello IM Google

Od jakiegoś czasu mówi się o wejściu Google w obszar IM (komunikatorów) dla użytkowników końcowych (consumer grade IM). Czym się kieruje G? Może chce przekształcić ten sektor wykorzystania IM w coś powszedniego (inaczej mówiąc popularyzować) lub może chce zagrozić trzem wielkim tego sektora (AOL, Yahoo, MS)? Tak właściwie to G ma taki produkt zwany Hello, który jest bardziej narzędziem-hybrydą: do współdzielenia plików graficznych (ostatni zakup firmy Picasa - do zarządzania obrazkami graficznymi) czy też tworzenia blogów (zakup Pyra Labs - pioniera w dziedzinie blogów) lub nawet programem pocztowym (udostępnienie Gmail z gigantycznym rozmiarem skrzynki i możliwościami wyszukiwania, umożliwienia komunikacji e-między mail-em i komunikatorem oraz najważniejsza chyba rzecz - zapewnienie trwałości tj. przechowywania rozmów). Wszystko to potwierdza podejrzenie metamorfozy Google z firmy zajmującej się wyszukiwaniem w Internecie w multimedialną firmę komunikacyjną. To Hello będzie właśnie taką hybrydą dostępność na rynku której planuje się w ciągu pół roku.
Analitycy zwracają uwagę właśnie na trwałości komunikatów/rozmów, dzięki tej cesze komunikaty mogą zostać utrwalone w ogromnej pamięci Gmail-a, mogą tworzyć wątki i być poddane data mining np. w celu znalezienie najbardziej ważnych informacji. Wszystkie te cechy są dostępne w wielu produktach na rynku (ale jest zbyt niewygodnie żonglować wieloma programami aby w końcu uzyskać żądaną jakość), ale nie ma jednego zintegrowanego narzędzia łączącego wszystkie te cechy w jeden produkt. Tym wejściem z jednym zintegrowanym produktem, Google może wykroić sobie niezły kawałek tortu z obszaru biznesowego wykorzystania IM.

Wiadomości internetowe

MS udostępnia trzeci swój projekt na zasadzie licencji open-source
We wtorek 28 września MS ogłosił udostępnienie w zasobach SourceForge kolejnego narzędzia programistycznego - FlexWiki. Jest to trzeci tego rodzaju przypadek (1 - Windows Installer XML, 2 - Windows Template Library) udostępnienia wewnętrznych narzędzi firmy na zasadzie CPL - common public license. Mimo nalegań deweloperów nie ma szans na jakieś większe kawałki kodu komercyjnego. Następny kandydat? Być może Microsoft Enterprise Library z Pattern and Practices Group. Jest to poprawiona wersja Patterns & Practices Application Blocks - zbiór komponentów programowych do wielokrotnego wykorzystania. Wyżej wspominana biblioteka pozwala uporządkowanie tworzenia kodu wg. określonych wzorców przez co projekt staje się bardziej przejrzysty i łatwiejszy w zarządzaniu. Większość tych wzorców została udostępniona przez MS na swym portalu GotDotNet (alternatywna do SF). Wśród różnych sugestii udostępnienia są i takie: otworzyć format dokumentów Office'a, oraz udostępnić kod IE jako, że i tak nie będzie on dalej rozwijany samodzielnie.

Red Hat kupuje resztki Netscape'a
RH zabawiła się w sępa i wygrzebała z pozostałości po firmie Netscape oddział zajmujący się rozwiązań bezpieczeństwa komunikacji sieciowej (Communication Security Solution unit). Zapłaciła za to 23 mln dolarów w gotówce. Co za to uzyskała? Otrzymała dostęp do Netscape Directory Server (obsługa LDAP - centralne zarządzanie ustawieniami aplikacji oraz dostępem do zasobów) oraz Netscape Certificate Management System (obsługa autentykacji użytkowników). Co obiecuje? Za 6 do 12 miesięcy włączyć te rozwiązania do swej oferty open-source. Ciekawe jest ten ostatni zakręt w historii Netscape jako firmy. Początkowo jako dostawca jedynej przeglądarki internetowej rozpoczęła burzliwy rozwój wykorzystania Internetu, osiągnęła wyżyny w 1995 roku kiedy na fali bumu dot-com weszła na giełdę (wartość początkowa - 2 mld dolarów). Pod naporem MS udostępniającego darmową przeglądarkę zintegrowaną z systemem Windows zaczyna podupadać i w ciągu trzech lat (1998) została sprzedana do AOL za 4.2 mld dolarów. Kod źródłowy NS został przekazany społeczności open-source i zapoczątkował rozwój projektu Mozilla. Ostatnim gwoździem do trumny jest decyzja AOL z dnia 17 liipca 2003 o zwolnieniu 50 pracowników zajmujących się rozwojem NS w AOL. Mówiło się wtedy o oddziale NS, że "można powiedzieć, że pacjent nie jest martwy ale podobny do zombie".

czwartek, września 30, 2004

Plany na przyszłość MS IE

Co jest z IE?
Wydaje się, że wbrew pozorom Microsoft nie porzucił idei przeglądarki internetowej. Wiele już lat minęło odkąd MS ogłosił wygraną z Netscape w wojnie na przeglądarki oraz kiedy wyszła ostatnia pełna poprawka do IE. (sierpień 2001). Mimo to Redmond zaprzecza doniesieniom, że powtarza się znany już scenariusz "EMBRACE-EXTEND-EXTINT", czyli, że IE wszedł w fazę trzecią czyli wymarcie. MS twierdzi, że taki długi okres oczekiwania na nowe wydanie IE potwierdza fakt prac nad nowym wcieleniem przeglądarki. Spodziewa się nowej jakości daleko wykraczającej poza kosmetycznymi zmianami jakie konkurenci IE włożyli w swoje produkty. Te nowe możliwości będą dostępne jedynie w nowej wersji sys. oper. Longhorn, co jak się oczekuje spowoduje chęć nabycia tego systemu. Zgodnie z oświadczeniem wydanym latem 2003 nie będzie już żadnej nowej wersji samodzielnej IE.

Taki sobie misz-masz

Symantec podał, że od stycznia do sierpnia pojawiło się ponad 5,000 nowych wirusów. Jest to ponad 400 więcej niż w podobnym okresie ubiegłego roku. Powodem tego wzrostu jest współpraca hackerów ze spammerami na tle motywów komercyjnych (chęci zysku). Szczególnie nowe wirusy pojawiają się poprzez pocztę elektroniczną, która zalewana jest niechcianymi wiadomościami. Symantec przewiduje wzrost ilości wirusów na Linuksie oraz urządzeniach naręcznych.
Firma WebSideStory stwierdza spadek dominacji MS IE do poziomu około 93.8% rynku. Przeglądarki Mozilla, FireFox i Netscape zajmują razem 5.2% rynku.

Po wejściu na giełdę Google podkupuje młode talenty informatyczne podobnie jak to czyni Microsoft (a nawet podbiera MS-owi) - zwani są oni Noogler i noszą kapelusze z śmigiełkami. Ostatnie zdobycze: Joshua Block (Sun, współtwórca Java), cztery osoby z przemysłu (m.in. Adam Bosworth pracował kiedyś w MS nad przeglądarką i MS Access), Joe Beda czołowy twórca GUI Avalon z Longhorn. Przypuszcza się, że G rozpoczęła prace nad nowymi technologiami nie tylko w dziedzinie wyszukiwarek ale IM oraz przeglądarek. Stanowi magnes dla młodych talentów traktujących pracę w G jako kuźnię swych umiejętności.

Oprogramowanie open-source:
wg: http://www.pcworld.com/news/article/0,aid,117802,tk,cx091704a,00.asp
dia do rysowania schematów z możliwością sterowania skryptowego poprzez język Python (pydia). Potrafi rysować diagramy m.in. : ER, UML, flowchart, network. Inne odmiany to dia2code.
Dot (część projektu GraphViz z AT&T) ma również interfejs z pythonem i dotty

Crypt pod adresem: http://neocrypt.sourceforge.net/index.php?name=download.xml
Paker 7-zip pod adresem: http://www.7-zip.org/

Vmware ACE - potrafi wykonać założoną centralnie politykę bezpieczeństwa na komputerach w sieci.
W maszynach wirtualnych ważne jest hasło KONSOLIDACJA sprzętu oraz narzędzi - dlatego teraz jest to takie popularne w IT. Konsolidacja pomaga zagospodarować wolne moce (underutilized) tkwiące na serwerach i wykorzystać je (połączyć).

środa, września 29, 2004

Bezpieczeństwo

  • Symantec ocenia, ze czas od momentu ukazania się informacji o błędzie w jakims oprogramowaniu do memmentu wykorzystania go w exploit skraca się do zera nie dając czasu tworcom oprogramowania na reakcje usuwającą dany mankament.
  • Zarówno Verisign jak i RSA (http://www.eweek.com/article2/0,1759,1648811,00.asp) proponują nowe rozwiązania problemu logowania - tzw. two-factor authentication. Stanowi to kombinację pass phrase z key chain token generujący unikalne hasło. Verisign - proponuje sprzętowy token podłączony do USB, RSA zachwala swoje SecureID kartę. Obie firmy na dodatek zachwalają systemy wspomagające zarządzaniem infrastrukturą. Rozwazana jest nawet fuzja RSA z MS (http://www.eweek.com/article2/0,1759,1538008,00.asp) lub inym ISP.
  • Symantec: Attacks Targeting E-CommerceNewsFactor Network: Threat analysis from security vendor Symantec indicates that software exploits are coming faster than ever, attacks are getting more sophisticated and more online attacks have a financial motive. That may explain why 16 percent of attacks in the first six months of the year were aimed at e-commerce sites, a 400 percent increase over the previous six months. Such an explosion is no doubt due to the rapid increase in phishing scams and spyware that steal personal information, the vendor said. And it won't come as a surprise that the number of new Windows viruses and worms this year is up: 4,500 and counting — almost five times as many as for the same period in 2003.
  • “Top 10 best practices in info security” presented at RSA webinar
    Monday, September 20 2004
    Avoiding future government regulations, such as a federal law modeled after California's 1386, can be accomplished by proving that we're doing a good job at self-regulation. That was the premise behind the 10 Best Practices that former U.S. security advisor Richard Clarke shared with his audience during a recent web seminar sponsored by RSA Security, Inc.
    Called Information Security and Compliance: Navigating the Ever-Changing Regulatory Landscape, the Aug. 26 webinar featured Lee Zeichner, advisor to the Department of Homeland Security on critical infrastructure issues, RSA Security's CIO Gerry Wilson, and Mr. Clarke, former White House advisor to the President on cyberspace security and author of Against All Enemies.
    RSA Security Inc. (www.rsasecurity.com) bills itself as helping organizations protect private information and manage the identities of the people and applications accessing and exchanging that information. RSA Security's solutions—including identity & access management, secure mobile & remote access, secure enterprise access and secure transactions—are all designed to provide a seamless e-security experience in the market.
    How IT security fits into the compliance puzzle was the topic of the day in regards to the privacy, security, and financial reporting regulations of Sarbanes-Oxley, HIPAA, Gramm-Leach-Biley, or California's SB 1386 which basically says if a company is hit by a hacker, that company is obligated to notify its customers regardless of the damage the hacker caused.
    Mr. Zeichner said that "we're going to see a lot more regulation, building on the California law which may become a national law."
    California's 1386, which went into effect last year, requires companies that have customers in California to safeguard the confidentiality and privacy of their personal information. Companies and organizations that fail to disclose computer security breaches become liable for civil damages or, more critically, can face class action lawsuits. The law mandates public disclosure of computer-security breaches in which confidential information of any California resident may have been compromised.
    Mr. Clarke, currently president of Good Harbor Consulting and who is an on-air security consultant for ABC News, asked: "How do we lay the groundwork now in our individual companies to make sure we don't get hit with unnecessary cyber regulations?” The government, he added, “hasn't been doing a very good job. The national strategy for cyberspace isn't being developed.”
    The best way to beat new regulations "is to show it's not necessary; that we're already far ahead in self-policing, in best practices," said Mr. Clarke. "This is all about showing Congress that we don't need to be regulated."
    Here are Mr. Clarke's "Top Ten Best Practices in InfoSec" (Information Security) and his comments on each:
    1. Set up automated vulnerability and compliance testing. This used to require audit teams, but you can now buy software or hardware that can check your network for vulnerabilities, or to determine if a company's IT security policy has been violated. "Everyday you can see if you're secure," he said.
    2. Deploy a patch management system. "CIOs tell me their No. 1 headache are patches. Then you have to test them, put them on, etc. There are a number of companies offering patch management services."
    3. Implement identity management and authentication procedures. "It's amateur to the extreme to just use pass words to log in. You can get freeware that can crack almost any password. You must be using some form of two-factor authentication with an identity management system in place."
    4. Use encryption (e.g. data in transmission and data at rest). "The California bill says if someone has hacked their way into your network, you have an obligation to tell all your customers what has happened, but if you have encrypted the data on your network, then you don't have to tell your customers."
    5. Participate in an early warning system. "There are a number of vendors with software that can say they see viruses or worms coming so your firewalls can be changed. Some are more credible than others, but it's clearly worth doing."
    6. Get a service level agreement (SLA) from your ISP. "You all have that, but what does it say about security? You can negotiate good service agreements, including having your ISP searching for worms and viruses or DOS (denial of service), or providing a second source if the service goes down. There are all sorts of things you can put in an SLA."
    7. Have a significant IT security awareness program. "This includes everything from not leaving passwords under mousepads, to your employees understanding about downloads, the risks of bringing disks in from home, etc."
    8. Test your software. "The source of the worms is vulnerabilities, glitches in software; not just Microsoft but your own software that you've developed. A lot of simple mistakes are made by people writing software, such as the buffer overflow problem. We've known about that for a decade. There is software that tests the products you're currently running."
    9. Look at your total environment, or the physical security overlap. "If you've done everything, yet anyone can still walk into your computer room and affect your security, then your program is out the window."
    10. Use an automated program that checks a laptop before connection to a network. "I call this 'the road warrior problem.' A lot of companies get hurt by their road warriors. They're out there with their laptop, they log on at a hotel, they get a virus and not know it, then they log onto the corporate network. There are programs that look at the laptop before allowing a complete connection that will test to see if it has a virus and if its anti-virus program is up-to-date."


Spyware

Spyware nikt tego nie chce.

Jest to coś co trudno wykryć i usunąć na dodatek wraca na komputer z powrotem. Audyt wykazuje, że 9 na 10 stacji końcowych jest "zarażonych" jedną z form spyware. Zarażone maszyny przechowują średnio około 25 aplikacji typy spyware. Jest to zjawisko na wyraz szkodliwe z uwagi na zmniejszenie wydajności pracy sprzętu w firmie oraz jawne pogwałcenie prywatności a także zagrożenie spójności informacji przetwarzanych na komputerze.

Definicja:

  • Jest to pewna klasa szkodliwych aplikacji rozprowadzanych poprzez "normalną" pracę w Internecie.
  • Spyware przekształcił się z aplikacji badających trendy w przeglądaniu witryn i zakupach przez Internet w oprogramowanie gotowe do spowodowania wielu szkód.

Cechy:

  • Instaluje się bez wiedzy użytkownika (załączniki poczty, okienka pop-up, ściąganie plików, IM)
  • W tajemnicy (bez wiedzy użytkownika) zbiera informacje o sprzęcie, użytkowniku i sieci
  • Przechwytuje połącznie z Internetem do transmisji danych osobowych i prywatnych bez zgody i wiedzy użytkownika

Typy:

  • Keystroke loggers - przechwytuje informacje wprowadzane poprzez klawiaturę (konta, hasła, dane, informacje osobowe) i przesyła do bazy centralnej w celu analizy zawartości
  • Adware - śledzi i raportuje zwyczaje użytkownika podczas surfowania po sieci narażając użytkownika na ukierunkowaną reklamę. Często podmienia opłaconą reklamę na swoją własną.
  • Trojans - konie trojańskie maskujące się jako nieszkodliwe a nawet pożyteczne aplikacje, instalują się i uruchamiają bez zgody i mogą przechwycić pełną kontrolę nad komputerem
  • Security disablers - obezwładniają włączone w systemie zabezpieczenia np. firewall, zmieniają konfigurację, zezwalają na uruchomienie nieautoryzowanych aplikacji.

Wniosek:
Spyware są trudne do wykrycia i usunięcia, twórcy ich nie chcą aby użytkownik się dowiedział o ich zainstalowaniu i sprawiają trudności w usunięciu. W najlepszym przypadku jest to nieetyczne, w najgorszym nielegalne. Niezależnie od intencji zebrana przez nich informacja może być wykorzystana w zły sposób np. w celu osiągnięcia nielegalnych zysków, otwarcia nieautoryzowanego dostępu do sieci.

Koszty:

Spyware są realnym zagrożeniem dla organizacji i jej sieci lokalnej, koszt tego zagrożenia może być wysoki. Potencjalne szkody to:

  • Kradzież danych osobowych i własności intelektualnych firmy
  • Otwarcie tylnej furtki do sieci lokalnej
  • Pogwałcenie prywatności użytkownika
  • Spadek wydajności (użytkownik odpowiada na aktywność spyware poprzez zamykanie okienek, powrót z przekierowania na inną stronę)
  • Zminiejszenie wydajności i produktywności działu IT (naprawa szkód)
  • Zawężenie pasma dostępu od Internetu - degradacja wydajności sieciowej, zawężenie pasma

Wieści z Microsoftu

  • Mechanizm aktualizacji Windows XP nowym SP2 nabiera tempa. Pobrało go ponad 20 milionów użytkowników. Plan jest aby do 18 listopada uzyskać 100 milionów ściągnięć. Jest obecnie 16 zlokalizowanych wersji SP2, ma być 26. Pojawiły się problemy z VPN (blokowanie połączenia się poprzez loop-back IP inny niż 172.0.0.1) ale zostały rozwiązane poprzez tymczasowy fix i teraz jest dostępny pierwszy oficjalny update do SP2. SP2 jest oznaczony przez MS jako krytyczny - dlatego należy go niezwłocznie zainstalować. Do marca br. MS sprzedał 210 mln indywidualnych kopii Winodws XP nie licząc licencji dla biznesu, w sumie szacuje się około 610 mln komputerów pracujących z Windows dowolnego rodzaju.
  • Inną ciekawostką jest zapowiedź planu sprzedaży do Rosji (z uwagi na szerzące się piractwo, szacuje się, że 97% oprogramowania jest nielegalne) Windows XP Express Light (35 USD), jak oświadczył MS, Chiny na razie nie wchodzą w rachubę.
  • MS planuje wypuścić w drugim kwartale 2005 nowy serwer rodziny Windows Server 2003 Family - Data Protection Server, który korzysta z tanich urządzeń pamięci typuATA i SATA. Po zainstalowaniu DSP następuje instalacja agentów do backupów na serwerach produkcyjnych oraz określenie grup do archiwizowania, przydzielenie pamięci dyskowej oraz zaplanowanie operacji tworzenia kopii zapasowych. Zaletą DSP jest częste, periodyczne przyrostowe tworzenie kopii archiwalnych pliku (na zasadzie shadow lub snapshot na poziomie bloków danych zmienionych od momentu ostatniej kopii). Daje to szybkie tworzenie kopii, mniejsze rozmiary kopii oraz prostsze i szybsze odtwarzanie backupów.
  • Gartner: ignoruj Longhorn zostań przy XP.
    Firma analityczna Gartner uważa, że MS może w ogóle nie zakończyć swego ambitnego projektu systemu plikowego WinFS, po tym jak został on zdjęty z planowanego do udostępnienia w 2006 nowego systemu Longhorn. Uważa się, że edycja Longhorn jest po to by zapełnić dziurę w planowanych upgradach systemowych wyznaczonych przez sam MS (klienci korporacyjni podpisali licencję "Licensing program 6" lwg. stylu subskrypcyjnego tj. subscription style license lub podpisali umowę Software Assurance na Client OS). Gartnet nazywa to date-driven release. Wraz z zaplanowanym w drugiej połowie 2006 s.o. Longhorn, do Windows XP zostanie również włączona technologia WinFX (podsystem Indigo - middleware oraz XML, oraz Avalon - grafika i nowy GUI) dzięki czemu różnica między tymi dwoma systemami zatrze się. Pozwoli to (wg. G)na dwie rzeczy: umożliwi tworzenie już teraz aplikacji zgodnych z wymaganiami Longhorn oraz pozwoli firmom pozostać dłużej przy rewitalizowanym Windos XP. MS dla uspokojenie klientów oferuje lokalny system wyszukiwania mający dać posmak tego co ich czeka przy pełnej realizacji WInFS, ale wg. G jest to oznaka, że można się obejść bez WinFS i tak mieć zadowalający motor wyszukiwania i radzi na skupienie się na rozpowszechnieniu SP2 by stał się ogólnym standardem w środowisku Windows XP. Bill Gates nazwał podsystem pamięci masowych WinFS jako Holy Grail - uwolnienie danych od sztywnego przypisania do danej lokalizacji i aplikacji w kierunku uniwersalnych mechanizmów przechowywania i współdzielenia (lokalnie, sieciowe i Internetowo). Sam MS przyznał (Greg Sullivan - główny menadżer produktu), że jest to (zapowiadany Longhorn) raczej ewolucja niż rewolucja.

wtorek, września 28, 2004

HTML DB i Oracle

HTML DB: Nowe sposób na tworzenie aplikacji internetowych

Aplikacja ta jest internetowym środowiskiem uruchamianym w przeglądarce do tworzenia w sposób deklaratywny aplikacji internetowych dla baz Oracle. Służy głównie do tworzenia raportów oraz formatek do ujmowania danych. Mimo, że jest to opcja Oracle Database 10g Release 1, można ją stosować środowisku Oracle9i release 2 i wyżej. Znajduje się na płytce Oracle 10g Companion CD. Nie jest płatna dla każdego kto ma licencję do Oracle Database.
HTML DB wykorzystuje wszystkie właściwe bazie Oracle możliwości np.: RAC, Virtual Private Database (przy tworzeniu aplikacji uwzględnia ona politykę bezpieczeństwa zdefiniowaną w VPDb), Oracle Label Security, Oracle text, Workflow, Spatial. Można powiedzieć, że jest ona sterowana poprzez metadane zdefiniowane w samej bazie.
Sposób programowania aplikacji jest deklaratywny w oparciu o model metadanych. Oznacza to, że podczas budowania programu nie pisze się faktycznie kodu ale dokonuje wyboru opcji i parametrów. Wybrane w ten sposób dane są przechowywane w tabelach samej bazy. Podczas uruchamiania aplikacji w HTML DB następuje wybranie z tabel powyższych parametrów i na ich podstawie następuje generowanie stron i układu na nich. Na przykład tworząc obszar raportu należy za pomocą wizarda powybierać opcje takie jak zdanie SQL, wzorzec obszaru, ile wierszy wyświetlać jednocześnie. Wszystko to zostanie zapamiętane w tabelach z metadanymi. Inaczej jest też z pakietem PL/SQL, który zwykle powstaje oddzielnie dla każdego raportu. HTML DB tworzy jeden, zbiorczy pakiet dla wszystkich raportów. Podczas uruchamiania wybranego raportu, silnik raportujący HTML DB wybiera z tabel z metadanymi odpowiednie dane, wykonuje raport i zwraca dane jako strony www.
Dostęp do obiektów bazodanowych odbywa się poprzez komponent zwany SQL Workshop. Nie ma on na celu zastąpienia SQL*Plus, ale dzięki wbudowanemu wizardowi pozwala użytkownikowi na łatwiejszy dostęp do obiektów w bazie. Oczywiście jest możliwe również wprowadzenie bezpośrednio polecenia SQL. Takie podejście jest znane wcześniej w postaci iSQL - gdzie poprzez przeglądarkę można było uruchamiać dowolne zdania SQL. Innym komponentem do obsługi obiektów dla bardziej zaawansowanych jest SQL Command Processor. Jest to obszar na stronie internetowej do którego można "wsadzić" procedurę w PL/SQL lub proste zdanie SQL i dowiązać jego wykonywanie w bieżącym obszarze roboczym. Jest też wiele innym pomniejszych wizardów do tworzenie i manipulowania obiektami np. do tworzenia indeksu dla Oracle Text. SQL Workshop pozwala również tworzyć skrypty DDL dla dowolnego obiektu bazy, dzięki czemu migracja z jednej bazy do drugiej jest znacznie ułatwiona. Dla bardziej doświadczonych użytkownik jest do dyspozycji wykonywanie poleceń SQL lub bloków PL/SQL. Procesor poleceń pamięta 100 ostatnich poleceń (też mi coś).
HTML DB jest przeznaczone dla:
DBA którzy nie mają specjalnie dużego doświadczenia w pisaniu aplikacji np. na szybko stworzenie jakiegoś raportu lub formatki do wprowadzania danych, tym bardziej, że znają SQL i PL/SQL. Nie muszą pamiętać o sterowaniu stanem sesji, o zapewnieniu spójnej grafiki i wyglądu interfejsu GUI.
mogą z niego korzystać doświadczeni deweloperzy chcący wykonać szybki prototyp aplikacji (zamodelować fragment aplikacji).
Wygląda na to, że HTML DB jest przeznaczone do zredukowania niepotrzebnych szczegółów technicznych (i programistycznych) o jakich należy pamiętać podczas szybkiego tworzenia i uruchamiania aplikacji. Wielu klientów Oracle zainwestowało w SQL i ma wiele przygotowanych (spreparowanych) poleceń SQL lub pakietów PL/SQL które można wprost wykorzystać do tworzenia ciekawych aplikacji online uruchamianych poprzez przeglądarkę. Kiedyś nie mogli tego zrobić z uwagi na brak wiedzy i czasu, inni z kolei tworzyli co prawda aplikacje internetowe ale nie całkiem prawidłowy sposób (zalecany przez Oracle) - atakowali problem ze złej strony przy pomocy złej technologii. Często korzystali z bazy MS Access (przykład użytkownika power user w aplikacjach biurowych). Tacy użytkownicy zdawali sobie sprawę z ograniczeń i małej elastyczności bazy Access ale trzeba było ich przekonać, że mogą przejść na coś lepszego. Przejście z baz biurkowych takich jak np. MS Access umożliwia narzędzie Oracle Migration WorkBench.
Największymi ograniczeniami to bezpieczeństwo. MS Access jest przeznaczony dla pojedynczego użytkownika, ochrona hasłem na nic się nie zda ("łamaczy" haseł jest aż nadto po 10 dolarów sztuka). Format mdb przechowującej całą bazę wraz z tabelami w pojedynczym zbiorze danych na dysku ułatwia kradzież (nawet z "udziału" przechowywanym centralnie na serwerze. MS Access wcale nie daje się skalować w górę, szybkość aplikacji zależy od mocy stacji roboczej użytkownika, jeżeli do tego korzysta z jednej bazy kilku użytkowników to szybkość dostępu do danych znacznie spada. Baza Oracle oferuje większą skalowalność (docelowo poprzez Oracle RAC), uruchamiana jest w środowisku zarządzanym przez profesjonalnych administratorów.
Nawet gdy istnieje w MS Access jakiś mechanizm autentykacji, to nie jest on zintegrowany na poziomie przedsiębiorstwa np. LDAP. Powoduje to, że zarządzanie tożsamością w skali całej firmy staje się trudne. Baza Oracle ma wiele wbudowanych mechanizmów uwierzytelnienia np. LDAP, Oracle Single Sign On czy też Oracle Internet Directory. Można też napisać własny schemat autentykacji.
Dla kogo jest więc HTML DB? Wydaje się, że dla projektów, które są niewielkie ale krytyczne, mają być stworzone w krótkim czasie, ale mają mieć wszelkie szykany dużych, stabilnych i bezpiecznych projektów i mogą w czasie rozrosnąć się do dużych rozmiarów. Przykładowo sama aplikacja HTML DB jest napisana w niej.
Czy używać lepiej JDdeveloper? To zależy od projektu? HTML DB nie bazuje na J2EE, więc jeżeli projekt wymaga zgodności z J2EE to lepiej wybrać Jdeveloper.
Na OTN jest repozytorium gotowych aplikacji w HTML DB. Na jego przygotowanie trzeba było paru dniu z tego połowa zajęły template dla zachowania look and feel OTN.
Resources
HTML DB Product Center
Oracle Database 10g Download
HTML DB Studio Pasted from <http://www.oracle.com/technology/pub/columns/spendolini_htmldb.html>

Zamienniki i Opensource

Oprogramowanie open-source:
wg: http://www.pcworld.com/news/article/0,aid,117802,tk,cx091704a,00.asp
dia do rysowania schematów z możliwością sterowania skryptowego poprzez język Python (pydia). Potrafi rysować diagramy m.in. : ER, UML, flowchart, network. Inne odmiany to dia2code.
Dot (część projektu GraphViz z AT&T) ma również interfejs z pythonem i dotty

Crypt pod adresem: http://neocrypt.sourceforge.net/index.php?name=download.xml
Paker 7-zip pod adresem: http://www.7-zip.org/

Głód i Google

Po wejściu na giełdę Google podkupuje młode talenty informatyczne podobnie jak to czyni Microsoft (a nawet podbiera MS-owi) - zwani są oni Noogler i noszą kapelusze z śmigiełkami. Ostatnie zdobycze: Joshua Block (Sun, współtwórca Java), cztery osoby z przemysłu (m.in. Adam Bosworth pracował kiedyś w MS nad przeglądarką i MS Access), Joe Beda czołowy twórca GUI Avalon z Longhorn. Przypuszcza się, że G rozpoczęła prace nad nowymi technologiami nie tylko w dziedzinie wyszukiwarek ale IM oraz przeglądarek. Stanowi magnes dla młodych talentów traktujących pracę w G jako kuźnię swych umiejętności.

Strach przed wirusami

Symantec podał, że od stycznia do sierpnia pojawiło się ponad 5,000 nowych wirusów. Jest to ponad 400 więcej niż w podobnym okresie ubiegłego roku. Powodem tego wzrostu jest współpraca hackerów ze spammerami na tle motywów komercyjnych (chęci zysku). Szczególnie nowe wirusy pojawiają się poprzez pocztę elektroniczną, która zalewana jest niechcianymi wiadomościami. Symantec przewiduje wzrost ilości wirusów na Linuksie oraz urządzeniach naręcznych.
Firma WebSideStory stwierdza spadek dominacji MS IE do poziomu około 93.8% rynku. Przeglądarki Mozilla, FireFox i Netscape zajmują razem 5.2% rynku.

VPN i PKI

VPN i PKI

VPN coraz częściej staje się wartością dodaną każdej sieci biznesowej. Szeroki dostęp do Internetu pozwala wykorzystać VPN oraz inwestycje w sieci lokalne do poszerzenia usług wewnętrznych na zewnątrz tej infrastruktury (głównie dla partnerów, klientów oraz pracowników). Możliwość korzystania z sieci wewnętrznej firmy poprzez Internet nosi nazwę tunelowania VPN.

VPN pozwala na dwie rzeczy: dostęp do sieci wewnętrznej dla upoważnionych do tego osób (VPN poszerza w sposób bezpieczny LAN); szyfrowanie całego ruchu sieciowego. Normalnie w Internecie jest możliwe podsłuchanie komunikacji, VPN uniemożliwia tego rodzaju szpiegostwo. Do tej pory był możliwy dostęp do zasobów wewnętrznych sieci np. poprzez dostęp typu dial-up ale było to bardzo zawodne i drogie rozwiązanie.

Technologia VPN
Tunel VPN łączy dwie lokacje. W tym przypadku użytkownika oraz zdalną sieć wewnętrzną. Kiedy użytkownik zewnętrzny pragnie połączyć się do sieci lokalnej poprzez VPN i korzystać z jej zasobów musi się najpierw przedstawić (zweryfikować, zautentykować). Po udanej autentykacji serwis VPN nawiązuje bezpośrednie połączenie z serwisem VPN na serwerze zdalnym. Taki kanał nosi nazwę tunelu poprzez Internet pomiędzy dwoma sieciami. Od tego momentu każdy komunikat sieciowy między tymi dwoma sieciami będzie przechodził przez ten właśnie kanał. Usługi VPN na obu końcach tego kanału będą dodatkowo szyfrowały i deszyfrowały wszystkie komunikaty. Jest wiele implementacji VPN, każda ma swoje wady i zalety. Dwie najpopularniejsze technologie konstruowania kanału VPN to:

  1. P2PTP lub PPTP (Point to point tunneling protocol)
  2. L2TP/IPSec (Layer 2 tunneling protocol with IPSec)

MS oczywiście implementował obie te technologie , ale jest jeszcze trzecia OpenVPN autorstwa James Yonan. Dlaczego ta trzecia? Dlatego:

  1. PPTP jest protokołem MS i na początku rozwoju miał wiele kłopotów z bezpieczeństwem, obecnie zostały one usunięte ale pojawił się problem kłopotów we współpracy z innymi platformami. Np. protokół ten używa do konstrukcji kanału VPN i pakietów danych protokołu tzw. GRE (general routnig encapsulation) i niektóre routery blokują tego rodzaju ruch sieciowy. OpenVPN do konstrukcji pakietów w tunelu VPN używa wyłącznie protokołu UDP oraz TCP.
  2. L2TP/IPSec nie dostarcza bezpieczeństwa, jedynie jest protokołem enkapsulującym dane, IPSec służy do szyfrowania i autentykacji stron. Ma jeszcze jedną wadę - VPN realizowany przy pomocy L2TP/IPSec nie może działać w środowisku NAT (Network Address Translation) działających na niektórych routerach. NAT wykorzystywany jest w małych sieciach i routerach obszaru SOHO (small office/hme office). Nowe routery DSL wspierają już NAT poprzez Universal Plug and Play (UPnP) NAT Traversal ale nie są jeszcze popularne. Protokół L2TP/IPSec jest skomplikowany w konfiguracji i konserwacji dlatego, że jest częścią większej infrastruktury sieciowej i działa na niższej warstwie. PPTP działa na wyższym poziomie i łatwiej zlokalizować i wykryć w nim problemy.
  3. OpenVPN wydaje się pozbawiony powyższy wad i na dodatek jest łatwiejszy w instalacji (wystarczy UDP i/lub TCP). Do zabezpieczeń używa SSL (Secure Socket Layer) protokół opracowany przez Netscape. Od 1999 roku SSL został przemianowany na TLS (transport layer security) przez Internet Engineering Task Force (IETF). Bezpieczeństwo TLS wzmocnione jest przez technologię certyfikatów X.509. W najnowszej co prawda beta wersji OpenVPN 2.0 dodano niezwykle cenną właściwość - walidację podczas procesu autentykacji certyfikatów z listą odwołanych certyfikatów (CRL - Certificate Revocation List), inną nowością jest to, że usługa VPN uruchamia się jako jeden proces.


OpenVPN stosuje TLS do uzyskania bezpieczeństwa, sam protokół TLS w trakcie procesu weryfikacji i szyfrowania polega na cyfrowym obiekcie zwanym certyfikatem X.509. Po właściwym skonfigurowaniu PKI można również udostępnić wiele innych zabezpieczonych w ten sposób usług np. web services (uslugi sieciowe) i pocztę.
Technologią podstawową do zapewnienia bezpieczeństwa jest kryptografia oparta na kluczy publicznym - polega na bezpiecznej komunikacji wykorzystującej dwa rożne klucze: klucz publiczny dostępny każdemu oraz klucz prywatny zastrzeżony jedynie dla właściciela. Oba klucze są generowane na podstawie skomplikowanego algorytmu kryptograficznego. Mają one pożyteczną właściwość: zaszyfrowanie komunikatu jednym kluczem jest możliwoe do odczytania przy pomocy drugiego klucza. Tzn. po wygenerowaniu pary kluczy, użytkownik może odszyfrować kluczem publicznym komunikat zaszyfrowany kluczem prywatnym i na odwrót.
Przykładowy scenariusz:

  1. Obiekt A wysyła zaszyfrowaną wiadomość do obiektu B, obiekt B wygenerował swoją parę kluczy i przekazał klucz publiczny m.in. do obiektu A, przy zaszyfrowaniu obiekt A korzysta z klucza publicznego B.
  2. Obiekt B otrzymuje wiadomość i tylko on deszyfruje ją swoim kluczem prywatnym
  3. Uwaga 1: dopóki obiekt B trzyma w sekrecie swój klucz prywatny tylko on może deszyfrować wiadomości od różnych osób szyfrujących jego kluczem publicznym
  4. Uwaga 2: czy w przypadku odwrotnym kiedy obiekt B chce wysłać zaszyfrowaną wiadomość przeznaczoną wyłącznie dla obiektu A. Jak wiadomo w Internecie wszystkie komunikaty można przechwycić, jedynie te zaszyfrowane są niedostępne dla osób niepowołanych. Czy można skorzystać z istniejących kluczy obiektu B? Otóż nie, gdyby obiekt B wysłał komunikat do obiektu A szyfrując go swym kluczem prywatnym do WSZYSCY w Internecie mający jego klucz prywatny.
  5. Wniosek - NADAWCA chcąc wysłać do kogoś zaszyfrowaną wiadomość musi ją zaszyfrować kluczem publicznym ODBIORCY.


Cyfrowe certyfikaty


Widać w tym scenariuszy jeden mankament - brak możliwości zarządzania kluczami PUBLICZNYMI (a nie prywatnymi). Skąd NADAWCA wie, że wysyła wiadomości i szyfruje je właściwym kluczem publicznym ODBIORCY (strona trzecia może podsunąć NADAWCY fałszywy klucz, dzięki czemu NADAWCA szyfrując nim dane jest w błędzie myśląc, że one mogą być odszyfrowane przez właściwego ODBIORCĘ - nosi to nazwę maskarady). W tym celu wymyślono cyfrowy certyfikat, który jest strukturą danych weryfikującą klucz publiczny i zawiera:

  1. Nazwisko właściciela klucza publicznego
  2. Nazwisko urzędu certyfikacyjnego potwierdzającego autentyczność klucza
  3. Właściwy klucz publiczny
  4. Cyfrowa suma kontrola certyfikatu zaszyfrowana kluczem prywatnym urzędu certyfikacyjnego

Urząd certyfikacyjny gwarantuje autentyczność klucza publicznego (tj. że należy do strony żądającej certyfikatu zwanej też PODMIOTEM - subject). Strony wystawiająca certyfikat nosi nazwę WYSTAWCY (issuer). Format certyfikatu zgodnego z X.509 zakodowuje te nazwy zgodnie ze specjalną syntaktyką -DN (distinguish names).
WYSTAWCA tworząc certyfikat zbiera informacje o stronie żądającej go, tworzy ciąg: nazwa strony żądającej dane + klucz publiczny żądającej strony + swoją własną nazwę i oblicza sumę kontrolną takiej struktury. Urząd certyfikacyjny szyfruje wynik tej sumy kontrolnej przy pomocy swego własnego klucza prywatnego i dopisuje to do struktury certyfikatu.
Od tej chwili każdy może sprawdzić czy dany klucz publiczny udostępniony w Internecie faktycznie należy do WYSTAWCY. Mówiąc ogólnikowo UC przechowuje unikalne świadectwo autentyczności CERTYFIKATU, jest ono nieznane innym stronom.

Struktura Klucza Publicznego
PKI jest to zespół oprogramowania, baz danych oraz usług sieciowych pozwalających organizacji na wystawienie, opublikowanie oraz odwołanie certyfikatu cyfrowego.

Wg. http://www.onlamp.com/pub/a/security/2004/09/23/vpns_and_pki.html

Gdzie wróg a gdzie przyjaciel?

Poznaj swojego wroga - zagrożenie od środka. Specjalny pochodzący United States Secret Service wykazał, że 87% ataków na instytucje finansowe i bankowe nie posługiwały się jakimiś subtelnymi technikami włamań i że około 7% ataków pochodziło z wewnątrz od ludzi będących autoryzowanymi użytkownikami tych instytucji - "Lisy strzegą kurników". Główny motyw ataku - chęć finansowa. Wniosek - można było lepiej wydać pieniądze przeznaczone na zabezpieczenia. Wg. : http://reviews-zdnet.com.com/AnchorDesk/4520-7297_16-5504220.html

Dziurawa Mozilla

Aplikacje internetowe Mozilla są dziurawe. Dziury (jest ich 10) umożliwiają zdalnemu napastnikowi wtargnięcie do systemu, przejęcie nad nim kontroli oraz dostęp do istotnych danych. Błędy są oznaczone jako "highly critical" i dotyczą kategorii: cross site scripting, manipulation of date, exposure of sensitive information, system access.
Błąd wykryła to jak zwykle firma Secunia: http://secunia.com/advisories/12526/

Gadający IBM

IBM ogłosił na konferencji SpeechTEK 2004 decyzję, która może wpłynąć na wzrost zastosowań aplikacji głosowych - oddał w ręce ASF kody technologii umożliwiających przetwarzanie głosu (speech technology: rozpoznanie i generowanie mowy) w postaci RDC (reusable dialog components). Zamiarem IBM jest zestandaryzowanie przez co wykorzystanie głosu stanie się dostępniejsze. Tym samym ukrócił spory na temat różnych standardów i umocnił pozycję standardu W3C VoiceXML 2.0 (jest on niezależny od platformy i wspierany przez 20 dostawców produktów). RDC to zestaw znaczników (tags podobnych do bloków LEGO) w JSP umożliwiających tworzenie aplikacji wykorzystujących głos, interfejsów użytkownika oraz generujący standardowy format VoiceXML w czasie wykonania (runtime) w środowisku Java. Podstawowe operacje to funkcje czasu, daty, waluty oraz położenia. IBM udostępnił również edytory dla edycji markerów VoiceXML.
Wykorzystanie tej decyzji: aplikacje webowe oparte o serwer Apache, aplikacje wykorzystujące technologię Java. Dodatkowo zgłosił do Eclipse projekt edytorów znaczników VoiceXML do tworzenia wzorców (próbek) głosu. Poważnym rywalem jest MS Speech Server 2004 bazujący na konkurencyjnym standardzie SALT (Speech Application Language Tags). Mówi się nawet o decyzji wsparcia przez MS standardu VoiceXML. Inicjatywa MS orientuje się na obszar aplikacji biznesowych w przedsiębiorstwie w środowisku Windows i wspiera narzędzia Visual Studio .NET.

Wirtualny Microsoft

Microsoft jest gotów do sprzedaży MS Virtual Server 2005 (dostępny ogólnie od 1 października, po prawie rocznym opóźnieniu). Celem produktu jest zredukowanie liczby fizycznych serwerów do zarządzania oraz do zakupu najnowszych wersji OS (możliwość uruchamiania "starych" systemów operacyjnych i aplikacji w środowisku wirtualnym). Jest to przejaw technologii wirtualizacji przetwarzania, trendu, który wg. Gartnera jest coraz silniejszy (pozwala na oszczędności rzędu 25%). Obecnie mówi się wirtualizacji jeszcze niżej na poziomie procesorów (Intel ma dwa projekty wirtualizacji procesorów w celu umożliwienia uruchomienia jednoczesnego wielu systemów operacyjnych na stacjach użytkownika - projekt Vanderpool oraz jako serwer Silverware Technology (ST), które umożliwiają obsługę przerwań od przychodzących danych sieciowych, jest to zaimplementowane w MS Longhorn), oraz o potrzebie zarządzania wirtualnymi maszynami a nie samym procesie wirtualizacji. Innym zastosowaniem tej technologii jest testowanie i rozwój oprogramowania, gdzie jest duże zapotrzebowanie na możliwość przetestowania oprogramowania na wszystkich możliwych platformach. Rynek maszyn wirtualnych jest opanowany przez rywala oddział VMware (giganta pamięci masowych EMC), który spodziewa się w tym roku zysk na poziomie 175-200 mln dolarów (2x więcej niż w ubiegłym roku). Jedną z przewag MS jest cena: wersja standard (do 4 procesorów) kosztuje 499 dol., wersja enterprise (do 32) kosztuje 999 dolarów. Brakuje im jednak cech zorientowanych na obsługę dużego przedsiębiorstwa oraz innych tzw. high-end. Przewiduje się integrację podstawowych możliwości wirtualizacji w przyszłe systemy operacyjne MS. Dlatego obserwuje się przesunięcie wysiłku firm zajmujących się wirtualizacją, na usługi związane z zarządzaniem (management) maszynami wirtualnymi i strukturami wirtualnych maszyn. Na pewno jest miejsce dla wielu graczy np. Citrix jest liderem na rynku zdalnego dostępu do serwerów mimo, że MS Windows jest wyposażony w bazową (prostą) wersję usług terminalowych.

Linuks a standardy

Ukazała się nowa wersja Linux Standard Base V.2.0 zawierająca wsparcie dla C++. Zadaniem LSB jest zapobieżenie fragmentacji różnych dystrybucji Linuxa oraz stworzenie wspólnej platformy deweloperskiej na poziomie kodu wykonywalnego (binarii) . Najważniejszym dodatkiem jest opracowanie ABI dla C++ (application binary interface) oraz wsparcie dla architektur 32 i 64 bitowych. Innym dodatkiem jest wsparcie dla Single Unix Specification 2.0. Dzięki temu aplikacje napisane pod jednym systemem Linux będzie można uruchamiać na innej dystrybucji. Otwiera to drogę np. dla twórców ERP do napisanie aplikacji uruchamianej na wszystkich dystrybucjach Linuxa bez konieczności portowania jak to mam miejsce w przypadku Unixa (Microsoft C++ jest de facto standardem do pisania aplikacji przemysłowych . Dodatkowo ABI C++ wspiera architektury 64 bitowe takie jak: PowerPC 64, S/390X, Opteron (AMD).
Strona LSB: http://www.freestandards.org.

Sukces

Wiele się mówi o ludziach, którzy potrafią przekształcić porażkę w sukces. Rzadko mówi się natomiast o ludziach sukcesu, którzy potrafią przełamać się i wyzwolić z oków minionych sukcesów po to by zdobywać nowe szczyty. Jest truizmem, ale trzeba sobie to jasno powiedzieć, że to właśnie ludzie sukcesu są najbardziej narażeni na niebezpieczeństwo utkwienia w martwym punkcie w momencie gdy ich magiczna formuła na sukces już więcej nie działa (najczęściej dzieje się to wówczas gdy warunki, które sprawiły, że dana formuła na sukces zadziałała, zmieniły się). Kluczem do zdolności do dalszego osiągania sukcesów poza warunkami, które kiedyś pomogły nam w poprzednim sukcesie, jest uwolnienie się od uporczywego trzymania się starej, prowadzącej do sukcesu strategii.

Leadership always includes knowledge of the possibility of failure. In this type of game, that provides a remarkable degree of confidence. If you operate with an acceptance of failure, you will remain confident no matter what happens during the course of the game.

IT: koszt czy zysk?

Wiele można zdziałać poprzez zamapowanie wymagań oraz funkcjonalności biznesowej w systemie informatycznym IT (nosi to nazwę enterprise architecture - próbuje się tu pogodzić platformy technologiczne z procesami i celami biznesowymi). EA ma wiele poziomów: najwyższy to funkcje biznesowe, później proces wytwórczy następnie planowanie i zamówienia. Na każdym poziomie można działania rozbić do elementarnej transakcji. Firmy od wielu lat walczą o zmniejszenie złożoności i kosztów IT, próbują do tego wykorzystać standaryzację wykorzystywanych technologii.
Zamapowanie nie jest procesem jest dyscypliną.
Należy przekształcić IT z centrum kosztowego w centrum zysku (przychodu - revenue), oznacza to traktowanie wydatków na IT jako inwestycje, które muszą przynieść dochód.

Bezpieczeństwo i Microsoft

Bezpieczeństwo w SQL Server 2000 - biblioteki protokołów sieciowych.
Na podstawie http://www.databasejournal.com/features/mssql/article.php/3334851
Ciekawym zjawiskiem w obecnej informatyce jest wzrost roli bezpieczeństwa systemów, które traktowane jest na równi ze wskaźnikami efektywności i kosztów. Obecnie każda nowa technologia jest oceniana z punktu widzenie bezpieczeństwa wykorzystania. Poważny wpływ na bezpieczeństwo ma wybór biblioteki sieciowej (Net Libraries) realizującej połączenie serwera (w tym przypadku MS SQL Sever) z klientem.
Wymiana informacji między C<->S w przypadku MS SQL ma miejsce w formie pakietów Tabular Data Streams (TDS). Pakiety te są czytane/wysyłane przez: SQL Server OLE DB Provider, ODBC Driver lub DB-Library DLL i przekazywane do biblioteki Net Library DLL. Biblioteka ta umożliwia wymianę pakietów TDS między procesami (IPC-interprocess communication) serwera i klienta. Dlatego w większości przypadków (za wyjątkiem wymiany poprzez shared memory lub local procedure call) wymagany jest jakiś protokół sieciowy do realizacji tej wymiany poprzez sieć. Z tego powodu większość dedykowanych komponentów biblioteki jest nazwa zgodnie z protokołem sieciowym realizującym tę wymianę np. TCP/IP, IPX/SPX (NWLink), Apple Talk lub Banyan Vines. Są też komponenty uniwersalne np. Named Pipes lub Multiprotocol Net Libraries mogące wybrać jeden powyższych protokołów. W SQL 2000 wprowadzono również nowy protokól SuperSocket Net Library (jest to otoczka służąca do obudowania pozostałych protokołów w mechanizm Secure Socket Layer - SSL). Do prawidłowej współpracy między C/S obie strony muszą wybrać zgodne protokoły wymiany. Dobrym zwyczajem (praktyką) jest zminimalizowanie ilości realizowanych przez oba końce protokołów, choćby z uwagi na bezpieczeństwo i wydajność (zminejsza się czas na uzgodnienie wspólnego protokołu i nawiązanie połączenia). Przy wyborze komponentu biblioteki należy się kierować następującymi kryteriami:
Wydajność - najszybsze są protokoły TCP/IP i IPX/SPX (pominięcie rdzeniowego komponentu Net Library Router),
Zdolność do obsługi wielu instancji bazy na jednym komputerze (named instances),
Autentykacja: a) zależność od bezpiecznego kanału serwer/klient - biblioteki Named Pipes i Multiprotocol wymagają do swej pracy (przed próbą autentykacji na poziomie MS SQL) istnienie bezpiecznego połączenia na bazie autentykacji poprzez mechanizm Windows. W konsekwencji te metody są dobre tylko w przypadku łączenia do serwera w obrębie jednej domeny lub domen zaufanych. Utrudniają one połączenie z serwerem MS SQL w środowisku rozproszonym z drugiej jednak strony jest to jeszcze jeden poziom zabezpieczenia b) wsparcie dla delegowania, ma to miejsce w przypadku kiedy uruchamiane są zapytania rozproszone,
Wsparcie szyfrowania - do skutecznego zaszyfrowania transmisji można wykorzystać Multiprotocol Net Library (jak w poprzednich wersja serwera) obecnie można skorzystać dodatkowo z protokołu SSL (poprzez SuperSocket Net Library)
Multiprotocol Net Library wykorzystuje API najnowszej biblioteki szyfrowania (można ją włączyć przez check-box "Enable encryption", należy pamiętać aby obie strony miały tę opcję włączoną). Protokół SuperSocket oferuje dodatkową możliwość: silniejszej enkrypcji, integralności komunikatów oraz autentykacji przez serwer. Jest on jednak trochę trudniejszy do skonfigurowania: wymagany jest serwer certyfikatów w postaci Certificate Authority (CA) do wystawiania certyfikatów oraz konfiguracja u kilenta tak, by zaufał certyfikatom wystawionym przez CA. Informacje o implementacji szyfrowania SSL do komunikacji między SQL Server i klientami można znaleźć: http://support.microsoft.com/default.aspx?scid=kb;en-us;276553&sd=tech i http://support.microsoft.com/default.aspx?scid=kb;EN-US;316898). Decyzje do podjęcia:
Rodzaj i typ CA. Można wybrać między CA na bazie platformy Windows 2000 / 2003 (idealne rozwiązanie dla domeny, lub domen zaufanych) lub komercyjny np. Verisign lub Thawte (dla użytkowników spoza zakresu zarządzania administratora MS SQL, tym bardziej, że wielu z nich korzysta i ufa z certyfikatów wystawionych przez firmy trzecie, wadą jest konieczność kupienia certyfikatu),
Kupienie ceryfikatu dla serwera (autentykacja na poziomie serwera) i jego instalacja systemie Windows na którym jest zainstalowany MS SQL Sever. W przypadku CA bazującym na Windows jest to proste: należy się zalogować do MS SQL Servera na konto serwisowe MSSQLServer i zażądać certyfilatu poprzez połączenie się z CA serverem w przeglądarce (adres: http://CAserverName/certsv),
Restart SQL Server Service (certyfikat musi być wczytane po każdym starcie serwisu),
Konfiguracja na każdym kliencie wystawcy CA jako Trusted Root Authority (zaufany główny ośrodek wystawiania klucza). Dzieje się to za pośrednictwem exportu z komputera na którym jest zainstalowany MS SQL tzw. autoryzacji zaufanego głównego wystawcy certyfikatów (Trusted Root Certificate Authority) i importu tej autoryzacji na komputerze klienta,
W przypadku, gdy serwer 200x goszczący MS SQL ma zainstalowane wiele certyfikatów, to trzeba podać który z nich jest używany przez MS SQL. Dzieje się to przy pomocy SETCERT.EXE (z Res.Kit do MS SQL Server 2000), lub poprzez ręczne poprawienie rejestru,
Wybranie opcji check-box "Force protocol encryption" w Server Network Utility powoduje szyfrowanie wszystkich wchodzących do serwera połączeń, lub użycie tej samej opcji na kliencie co skutkuje szyfrowaniem tylko połączeń przez niego inicjowanych.
Generalnie mówiąc należy używać biblioteki sieciowej TCP/IP Net Library z uwagi na wydajność i bezpieczeństwo, które oferuje. Można również zmienić domyślny port TCP 1433 i wybrać opcje "Hide server" (wtedy zmieni się port na 2433) i zmienić te ustawienia u klienta. Nie jest to zalecane przez MS (KB 308091 and 814064). Należy pamiętać o zablokowaniu w sieci portu UDP 1434 (Slammer).

Wstęp do NIS

NIS (Network Information Service) służy do wsparcia zarządzaniem kontami i hasłami w sieci. Jest on centralną bazą danych o użytkownikach sieciowych w tradycyjnym modelu klient-serwer, kopia jest przechowywana na każdym kliencie. NIS używa koncepcji domains - wszystkie komputery domeny maja tę samą bazę kont i haseł (więcej na ten temat: www.linux-nis.org). W Linux servwer NIS nazywa się ypserv. Plik konfiguracyjny /etc/ypserv.conf. Przykładowa zawartość:
192.163.3.:home:*:none pula adresów 1-254 jest wolna dla domeny. Założenie domeny:
domainname home uruchomienie serwera: /etc/init.d/ypserv lub jako 'root':
rpcinfo -p localhost ypserv, inicjacja bazy: /usr/lib/yp/ypinit -m po założeniu nowego użytkownika należy odbudować bazę: make -C /var/yp Po stronie klienta należy zredagować pliik /etc/py.conf i wpisać: domain server . Podłączenie klienta do serwera NIS: /usr/sbin/ypbind, test połączenia: /usr/sbin/ypcat passwd.

Wstęp do NFS

Są dwa protokoły udostępniające zasoby dysków sieci: NFS (Network File System) dla Unix/Linux oraz CIFS (Common Internet File System). W przypadku NFS udostępnia się zasób sieciowy np. swój katalog w sieci o danej masce dla operacji rw - plik etc/exports:
home 192.168.1.0/255.255.255.0(rw) można też podać listę komputerów:
home 192.168.1.2(rw) 192.168.1.3(ro) a następnie wystartować:
/etc/init.d/nfs start
Użytkownik montuje udział ręcznie tak:
Mount -t nfs 192.168.1.1.:/home /home lub poprzez /etc/fstab
Problemy:
protokół ten zawiesza stacje kliencką w przypadku braku połączenie ze zdalnym udziałem. Po czymś takim należy odmontować udział poleceniem umount
NFS nie wspiera autentykację użytkownika, chociaż wspiera system praw dostępu. Dlatego należy go wesprzeć serwerem NIS. Implementacja NFS dla systemu Linux jest dostępna na nfs.sourceforge.net

CRM za friko?

SugarCRM udostępnia swe usługi w zakresie automatyzacji funkcji sprzedaży (saleforce automation soft. - aplikacja klasy CRM) na zasadzie open source bazując na technologii LAMP. Dochody zamierza czerpać z płatnego wsparcia (ok.. 150 dolarów za pierwszy rok, potem 240) oraz szkoleń. Założycielami firmy są byli pracownicy E.piphany. Produkt posiada możliwość importowania danych z popularnych produktów CRM segmentu średniego np. Salesforce.com, Microsoft CRM. Podejście to jest podobne do swego rywala ComPiere (ma aplikacje open source ERP i CRM). Plany nowych produktów: Sugar Marketing, Sugar Service.
Gartner ocenia dojrzałość rynku aplikacji biznesowych bazujących na open source jako "embrionic" - używa go mniej 1% przedsiębiorstw małych i średnich. Powód - brak standardów, duże koszty stworzenia i wejścia na rynek aplikacji o tak dużym rozmiarze. Dodatkowo wymagania implementacyjne (dostosowawcze) wynikające z potrzeby przykrojenia aplikacji CRM dla wdrożenia w dużej firmie są znaczne i to niezależnie od modelu biznesowego wytwarzania oprogramowania. Poza tym konkurencja Siebel i PeopleSoft nie śpi.
Wg. http://www.linuxworld.com.au/index.php?id=1783844912&eid=-50

Klasyfikacja typów raportów BI

Według Micro-Strategy istnieje pięć typów (rodzajów) raportów:
Enterprise Reporting - najpopularniejszy, powszechnie publikowany, oparty o wycyzelowane z dokładnością do pixela obiekty na stronie przeznaczony dla zarządu i innych konsumentów informacji. Typ raportu:
  • operacyjny lub wskaźnikowo/osiągnięciowy (scorecards/dashboards),
  • Cube Analysis - analiza kostki OLAP ograniczonego zbioru wskaźników skierowana do menadżerów potrzebujących proste środowisko dla podstawowych funkcji eksploracji danych na ograniczonym zbiorze danych,
  • Ad Hoc Query and Analysis - pełna analiza OLAP na całej bazie z pełnym przekrojem aż do poziomu pojedynczej transakcji, dla użytkowników zaawansowanych i analityków danych,
  • Statistical Analysis - pełna obróbka danych przy pomocy funkcji statystycznych, finansowych i matematycznych w celu znalezienia korelacji (analiza korel., terndów, finansowa) skierowana do zawodowych analityków inormacji,
  • Alerting and Report Delivery - aktywna funkcja dostarczania zawartości i alarmowania skierowana do dużej populacji odbiorców uruchamiana poprzez zdarzenia w bazie (wyzwalacze zdarzeniowe) lub usługi typu cron. Użytkownicy to konsumenci informacji zarówno wewnętrzni jak i zewnętrzni.

Co nam po standardach?

Standard SQL (http://dbazine.com/gulutzan3.shtml). Prace nad standardem międzynarodowym SQL prowadzone są w dwóch miejscach: ISO/IEC JTC 1/C32/WG 3 oraz AMS TC NCTIS H2. Wielka trójka (IBM, Oracle i MS są obecne w tych komitetach). Obecnie trzy edycje SQL coś znaczą:
SQL-92 poprzednie standard,
SQL:1999 obecny zwany również SQL-99,
SQL:2003 przyszły standard zwany również SQL:200n
Każdy producent baz danych daje formalne stanowisko wobec standardu np. IBM twierdzi, że implementuje SQL 1999 Core, Oracle podaje w załączniku, które cechy SQL:1999 są zaimplementowane, MS zaledwie wspiera SQL-92 na poziomie Entry Level. Kuriozalnym jest to, że komitet wspomina, że SQL:1999 zamienia i anuluje SQL-92. Formalnie brzmi to groźnie, ale Entry level SQL-92 jest bardzo zbliżony do Core SQL:1999.

Piszący Microsoft

Blog może zatkać sieć? Ostatnio duże poruszenie wywołała decyzja MS aby nie udostępniać w całości treść blogów pisanych przez deweloperów z MSDN jako strumień RSS (na stronie blogów były jedynie fragmenty dzienników tj 500 znaków i link do odpowiedniej podstrony www autora, pozwoliło to oszczędzić pasmo o 75% i strona ze wszystkimi blogami miała 100 K) powód poważne obciążenie pasma. Po kilku dniach firma się wycofała, ale pozostaje pytanie czy blogi mogą tak mocno zapchać Internet? Wywołało to burzliwą debatę na temat protokołów internetowych i wykorzystywanych w blogach (blogi są najlepszym sposobem na współdzielenie informacji w efektywny sposób, ale niestety pochłaniają duże pasmo sieciowe a pasmo nie jest za darmo) oraz o metodach dostarczania zawartości na serwerze klientowi (push czy pull). Firma MS od paru miesięcy udostępnia blogi swoich deweloperów w postaci stron na witrynie (zawierającej wszystkie blogi) oraz jako strumień RSS. Idea obcięcia blogów w agregatorach RSS jest sprzeczna z podstawowym celem działania RSS - chodzi o umożliwienia przy pomocy agregatora wiadomości zebranie w jednym miejscu interesujących nas informacji (nagłówek-treść) pochodzących z równych stron bez konieczności "wchodzenia" na poszczególne strony. Mówi się coraz częściej o fenomenie blogów jako środka komunikacji w środowisku korporacyjnym i deweloperskim oraz technologiczną podstawą rozprowadzania wiadomości (serwis Reuters).
Coraz częściej mówi się o konieczności zaprzestania łączenia blogów w jeden kawałek (single feed co powoduje duży rozmiar strony) i publikowania początków blogów. Toczy się wojna na słowa o wydajności technologii RSS i skalowalności w miarę narastania ilości blogów - tak naprawdę czytniki (agregatory) wiadomości w formacie RSS działają w trybie pull tzn. ściągają do klienta całe masy wiadomości w pewnych odstępach czasu. I tu leży sedno rzeczy, wiekszość czytelników blogów ma domyślnie ustawione pobranie treści na 1 godzinę - powoduje to okresowe, regularne szczyty ruchu sieciowego. Poważnym zagrożeniem jest inny format wiadomości Atom. Rozpoczęło to zażartą dyskusję na temat zalet obu technologii (podważa się skalowalność protokołu RSS).
Tym nie mniej rozwiązaniem dotychczasowego problemu jest zaprzestanie udostępniania zagregowanego strumienia wiadomości (aggregate feed) - tj. wszystkich blogów połączonych w jeden strumień. Alternatywą dostępną w zasięgu czytelników wiadomości jest, początkowo czasochłonne, podpisanie subskrypcji dla wybranych autorów blogów.
Alternatywą technologiczną jest wykorzystanie niedocenionych możliwości protokołu HTTP. Chodzi o rozszerzenie protokołu HTTP zawarte RFC 3229 - pozwala na ściąganie z serwera do przeglądarki i czytnika wiadomości tylko nowych danych. Mimo małego wykorzystania tego rozszerzenia w obecnym Internecie uważa się, że jest to duża nadzieja na ograniczenie ruchu. Np. firma PubSub Concept pozwala na skanowanie milionów blogów w poszukiwaniu słów kluczowych wybranych przez użytkownika. Innym rozwiązaniem jest skorzystanie z technologii push znanej z PointCast.
Inną firmą, którą warto obserwować jest Wordpress (http://wordpress.org)
Problemy jakie napotkała firma MS są znamienne, ponieważ za niedługo staną się problemami całego światka bloggerów w Internecie.

Walczący Micorosft

Martin Taylor - general manager MS platform odpowiedzialny za działania powstrzymania Linux i ruchu open-source, dziwi się sukcesowi Linuxa jako produktowi, który się tak łatwo sprzedaje, skoro przecież można go ściągnąć za darmo. Wydaje mi się, że stosunkowe problemy jakie napotyka przypadkowy amator Linuxa polega na trudności instalacji i konfiguracji. Dlatego firmy, które opakowują elementy open-source w gotową do instalacji dystrybucję mają i będą miały rację bytu. Obecnie MS występuje przeciwko nie samemu Linuxowi lecz konkretnym firmom: Novell, IBM i Red Hat. Środki obronne to: wspieranie funduszami testów i badań nad TCO obu produktów, agresywna kampania reklamowa w mediach, zabronienie publicznego nadużywania inwektyw w rodzaju "Linux to rak", "to nie jest amerykańskie", rozmowy z klientami oraz zwrócenie swych działań ku Europie, oraz skierowanie ataków na firmy sprzedające dystrybucje Linuxa. Zdaniem MT należy użyć innej taktyki wobec studentów i programistów, którym ruch i filozofia open-source odpowiada zamiast kierowania się względami pragmatycznymi - "cool factor". MS próbuje też sterować programem nauczania w szkołach wyższych. Próbuje też zasilić swoje szeregi ekspertami z dziedziny Linuxa np.. Bill Hilf (twórcę witryny eToys zbudowanej na Linuxie), prowadzi również wewnętrzne kursy na temat produktów opartych o Linux. Oceniając kampanie reklamującą niższy TCO i większe bezpieczeństwo Taylor przyznał, że niestety, jak na razie, najbardziej trafia do odbiorców pierwszy slogan.

Przewrotny Microsoft

Echo ugody MS i SUN, analiza umowy zawartej między tymi firmami w połowie bieżącego roku wyjawia wiele ciekawych faktów. Firmy obiecały przez 10 lat od podpisania ugody nie występować na drogę sądową w sporach o patenty, ani nie sądzić się z ich klientami. Oczywiście pod warunkiem wypłacania do firmy SUN przez MS rokrocznie opłat. Jak widać nie jest to "gruba kreska" ale zakopanie toporu wojennego (rozejm). W umowie spod ochrony jawnie wyłączono licencję na Open Office. OO jest licencjonowana wg. podwójnej licencji: GNU General Public License i Sun Industry Standard Source License. Oznacza to nic innego jak możliwość wykorzystania prawa do zasądzenie licencjobiorców produktu OO przez MS przy jednoczesnej ochronie firmy SUN przed pozwem. Oznacza to nic innego jak jawnie wrogą postawę SUN do produktu open-source jakim jest OO oraz dystrybucji włączających OO do siebie. Oczywiście główny blogger SUN i jednocześnie COO i prezydent Jonathan Schwartz zaprzecza takie interpretacji, mówi jedynie o rywalizacji (wrogości) między Red Hat a Solaris x86.

Punkt G

Firma Google po całym zmieszaniu spowodowanym niezbyt zręcznym wejściem na giełdę (afera z artykułem w magazynie Playboy) rozpoczęła walkę o rynek - przejęcie kontroli nad sieciowym systemem operacyjnym następnej generacji tj. wyjście poza środowisko wyszukiwarki i objęcie możliwością wyszukiwania coraz nowych treści i formatów. Firma musi przewalczyć mniemanie rynku, że zajmuje się wyłącznie wyszukiwaniem informacji. Nowy wizerunek firmy to głoszenie hasła - oprogramowanie jako usługa (software-as-service). Pod tym hasłem leży technologia XML Web Services polegające na upowszechnieniu integracji różnorodnego sprzętu i oprogramowania ze sobą i stworzeniu architektury skierowanej na usługi (SOA - service-oriented architecture). Usługi zorientowane na przeglądarkę internetową pozwalają uniknąć problemów z instalacją oprogramowania wewnątrz firewall oraz wykorzystać efekt łączenie usług oferowanych przez różnych partnerów łańcucha dostaw. Uzyskujemy centralne zarządzanie bezpieczeństwem oraz aktualizacjami (oczywiście za opłatą) co pozwala przekształcić IT w centrum przychodu (za usługi związane z opakowaniem aplikacji i ich dystrybucją). Architektura IT Google to silne, wysoko skalowalne farmy serwerów oparte na kodzie otwartym.
Nowe projekty:
Webmail - wykorzystujący ukierunkowaną reklamę dzięki silnikowi Adsense, brak na razie obsługi POP i IMAP oraz XML API,
Możliwość importowania wiadomości z potoku RSS, po zasileniu kontenera Gmail będzie możliwa jego obróbka: Gmail Coversation view (tworzenie wątków wiadomości na podstawie etykiet - tagów, tworzenie hierarchii oraz współdzielenie treści RSS z członkami grupy, dodatkowe wtyczki do przeglądarki pozwolą na sformatowanie i zapamiętanie wybranych treści) - krótko mówiąc tworzenie podstawy platformy współpracy dla aplikacji enterprise. Stąd prosta droga do możliwości planowania (obsługa kalendarzy), dostarczania treści multimedialnych oraz połączenia z systemami CRM, SFA i ERP.
Dołączenie inteligentnej pamięci typu cache pomiędzy serwerem Google a przeglądarką (na bazie projektu Adama Boswortha zwanego Alchemy framework opracowanego jeszcze wtedy gdy Adam był pracownikiem BEA) daje możliwość przechowywania zwartości offline i możliwość sporadycznego łączenie się z serwerem.
Nie da się ukryć, że aplikacje biurowe wykorzystujące MS Office są potrzebne i stanowią połączenie z platformą deweloperską .NET, ale MS popełniła jeden błąd strategiczny - nie dostrzegła kluczowej roli IE oraz Outlook przez co otworzyła furtkę dla projektów Mozilla czy Safari. Firma MS ucierpiała z powodu braku nowych możliwości oraz bezpieczeństwa w IE i niedostatkom w walce ze spamem w Outlook. Teraz się już firm MS obudziła i cały swój potencjał R&D skierowała na udoskonalenie Outlooka aby podciągnąć go do stanu jaki osiągnęły inne komponenty pakietu Office tj wyposażenie go w wspólny model obiektowy bazujący na XML. Odium własnego, zamkniętego formatu ciągle wisi nad tym pakietem jak miecz Demoklesa.
W między czasie pojawił się blog - odmiana RSS, który zalał swą zawartością cały Internet stając się uniwersalnym pojemnikiem do przenoszenia różnych treści uruchamianych przez zdarzenia (event-driven). Pojawiły się rywale programów pocztowych i przeglądarek w postaci agregatorów wiadomości zamieniających dotychczasowy nałóg oglądania stron i niechcianego spamu w wybiórczą subskrypcję interesujących nas treści.
Blog powoli staje się narzędziem komunikacyjnym na poziomie enterprise dając impuls do powstania nowej kategorii oprogramowania - samodzielne agregatory wiadomości (standalone RSS) pozwalające zarządzać zawartości podobnie jak pocztą (w trój panelowym widoku) - na przykład serwisy Bloglines, Feedster, które nie wymagają instalacji i oferują łatwą aktualizację.
MS jest ciągle skrępowany (hamstrung) nie rozwijanym IE, opóźnieniami w rozwoju Longhorn, chociaż dał "zielone światło" dla bloga umożliwiając swym deweloperom publikowanie swych pamiętników na stronach MSDN. Ojcem wszystkich blogerów w MS jest Robert Scoble.

Zintegrowane urzadzenia sieciowe (UTM)

Nowe urządzenie do zapewnienia bezpieczeństwa sieciowego

Obecnie podstawową ochroną sieci jest firewall (za nim jest VPN), ale wg. analityków IDC sytuacja ta może się niedługo zmienić, ponieważ pojawiła się nowa kategoria urządzeń - UTM (unified treat management). Trend ten widać najwyraźniej w Euuropie. Chociaż przez najbliższe lata rynek urządzeń firewall/VPN będzie rósł nadal to nie tak szybko już, ponieważ firmy wolą zakupić zabezpieczenie sieci w postaci pojedynczej (zintegrowanej) zawierającej w sobie wszystkie możliwości platformy. Nie tylko są one tańsze ale i łatwiejsze w skonfigurowaniu. Firmy produkujące UTM to FortiNet (30%), Symantec (23%), Secure Computing oraz ServGate Technology.