Archive for ottobre 2007

NVIDIA si riscopre password cracker

Posted on ottobre 26, 2007. Filed under: News |

L’enorme evoluzione a cui negli ultimi anni si è assistito nel campo della computer grafica ha obbligato i produttori hardware a realizzare schede video dedicate sempre più performanti per ridurre il carico della CPU. NVIDIA, una delle società più importanti in questo settore, ha realizzato dei potentissimi GPU in grado di occuparsi indipendentemente del carico di lavoro grafico.

Facendo uso del SDK NVIDIA, Elcomsoft ha sviluppato un potente Password Recovery Distribuito che basa il proprio funzionamento sulla combinazione di calcolo della classica CPU e della GPU integrata sulla scheda video.

Il comunicato stampa rilasciato dalla società stessa conferma l’elevata performance raggiunta da tale processore grafico, riuscendo a ridurre del 25% i tempi di crack basati su un algoritmo di bruteforce. La verifica di circa 10.000.000 password al secondo, permetterebbe il crack di hash HTLM in tempi davvero ridotti.

Questo prodotto è di tipo commerciale ma di certo può essere lo spunto per la realizzazione di un tool prettamente opensource.

 

Fonte. 

Leggi l'articolo intero | Make a Comment ( None so far )

Come evolveranno le reti sociali online

Posted on ottobre 26, 2007. Filed under: News |

MySpace sostiene di avere più di cento milioni di utenti registrati. Nel mese di settembre non solo 33,7 milioni hanno utilizzato Facebook, ma hanno anche visitato il sito rivale in media 2,3 volte al giorno. Questi siti registrano senza dubbio uno straordinario successo, e per una semplice ragione: i siti di social network stanno letteralmente reinventando il web.
La Rete era stata protagonista di una rivoluzione già una volta. I browser erano stati inventati per poter vedere le pagine essendo in grado di trasformare il codice Html in un insieme chiaro di testi e grafica. Allora l’interattività consisteva di formulari da completare e un bottone di invio per mandare i dati al server. Poi, nella seconda metà degli anni 90, divenne sempre più evidente che i browser si candidavano a essere i nuovi desktop. Al loro interno si trovavano i programmi che usiamo ogni giorno.
E questo è stato l’obiettivo dell’ultimo decennio: è possibile trasformare i browser in una piattaforma sufficientemente stabile che possa funzionare da client software per tutti i nostri business e le esigenze quotidiane? È possibile ottenere il giusto mix di servizi forniti localmente nel nostro browser e fatti girare sul server utilizzando strumenti come Ajax? Con l’affermazione della suite applicativa di Google e l’enfasi posta da Microsoft sulla versione online di Office, la risposta sembra decisamente positiva.
I siti di social network rientrano ovviamente in questa prima tornata di trasformazione del web, trattandosi di applicazioni consegnate tramite browser. Ma comprendono sempre più tool e servizi derivati dalla stessa internet. All’interno del perimetro del nostro sito di social network, possiamo bloggare, chattare, fare instant messaging, mandare mail e sviluppare una home page. Ora che Facebook si è aperto a qualsiasi sviluppatore, ogni giorno si aggiungono sempre più servizi. Con questa mossa Facebook ha aggiunto il più grosso tassello di internet che gli mancava: la capacità di innovare rapidamente, a basso costo e con il contributo di chiunque.
I siti di social network hanno così integrato i servizi sociali che stanno più a cuore alle persone. Ma perché abbiamo bisogno di siti di social network per questo? Perché non è sufficiente avere un client che li metta insieme per noi? Di certo ci hanno provato. Per esempio la mail di Google comprende anche la chat e basta un solo click per avere il servizio di agenda. Ma ai tentativi precedenti mancava l’ingrediente più importante: la nostra rete di amici. I servizi sono commodities. Non lo è invece l’insieme delle persone che conosci e che ti piacciono. Ecco dove risiede la prossima generazione del valore.
Ed è proprio questo che sta permettendo al social network di reinventare il web. Internet era concepito inizialmente come una rete di pagine, collegate liberamente e caoticamente, con un ordine bottom up, senza un’authority centralizzata che registrasse e coordinasse i link. C’è un potere dirompente in un’idea del genere e noi stiamo solo iniziando a capire cosa si possa fare con questo. Ma le relazioni umane erano invisibili al web. Era più facile trovarle nella casella di posta elettronica o nell’elenco dell’instant messaging che non nel reticolo di iperlink costruiti grazie al vostro browser.
I siti di social rendono visibili queste relazioni, il che è allo stesso tempo un vantaggio e un limite. I siti sanno chi sono i tuoi amici, perché tu dici chi sono i tuoi amici, e i tuoi amici accettano tale designazione in maniera esplicita. Su Facebook avete a disposizione una dozzina di diverse relazioni per ogni singola connessione, anche se i nostri rapporti sono molto più variegati rispetto a quei modelli. Quindi ciò che i siti sanno delle nostre relazioni è troppo esplicito e troppo rigido. Peggio, le dinamiche sociali di questi siti creano inevitabilmente distorsioni: tu finisci per accettare un altro come amico perché non vuoi ferirne la sensibilità. Una volta superato quel momento di impaccio, però, hai la possibilità di instaurare relazioni molto più ricche rispetto ai legami iniziali, espliciti. Il sito sa non solo che io ho scelto te come amico, e che tu hai accettato, ma anche che ci siamo scambiati messaggi tutti i giorni, che abbiamo condiviso foto – su Facebook sono caricate ogni giorno otto volte le foto di Flickr –, che abbiamo dato voti ai film e che a entrambi piacciono le commedie romantiche. Questi siti generano rapidamente una quantità enorme di informazioni implicite sulle relazioni che abbiamo con i nostri amici. Utilizzate adeguatamente – e la prospettiva di abusi è davvero spaventosa – possono arricchire le nostre vite sociali facendo nascere nuove relazioni e approfondendo quelle esistenti.
Questi social network rischiano di diventare troppo importanti per il loro stesso bene. Dato che andiamo in rete in primo luogo per connetterci con altre persone, dover affidare tutti i nostri dati a un solo sito potrebbe diventare un peso. Il web stesso funziona meglio nel facilitare relazioni sociali rispetto a qualsiasi singolo sito. E potrebbe arrivare un momento in cui decideremo che vorremo possedere le nostre informazioni personali – comprese quelle relative ai nostri amici – piuttosto che affidarle a Facebook o a MySpace. Potremmo voler essere in grado di contattare membri di altri social network. Potremmo insistere per rendere questi siti più trasparenti dal momento che quello che ci interessa sono i nostri amici, non Facebook, MySpace o qualsiasi altra dot.com. Vorremmo poter connettere il nostro network business – il social network ha enormi potenzialità per le aziende – a quello del nostro tempo libero. Potremmo insistere per far uscire i social network dai contenitori in cui sono rinchiusi, inventando un modo per trasformare il web stesso in una rete di persone oltre che una rete di pagine.
A quel punto avremo reinventato di nuovo il web. Nel frattempo i nostri figli e – sempre più – i nostri partner di lavoro staranno chattando, messaggiandosi, condividendo video e inventando nuovi modi per essere sociali, sempre all’interno dei confini dei siti di social network.o

Fonte. 

Leggi l'articolo intero | Make a Comment ( None so far )

Windows 7 dal cuore leggero

Posted on ottobre 26, 2007. Filed under: News |

Dal 2010 Windows (Blackcomb o Windows 7) cambierà radicalmente fisionomia. E forse tornerà alle origini. La notizia è circolata nei giorni scorsi su internet, grazie a una presentazione tenuta all’Università dell’Illinois da Eric Traut, programmatore senior della Microsoft.
La novità, mostrata da Traut, si chiama MinWin, ovvero un prototipo di kernel (nocciolo) per il futuro Windows 7 ridotto ai minimi termini. Soltanto un centinaio di files contro i circa 5mila che fanno oggi il cuore di Vista. E un’occupazione su disco di 25 megabytes contro 4 giga. MinWin può lavorare in uno spazio di 40 megabyte di memoria (la dotazione di un telefonino a basso costo di oggi) e gestire un server web (http) e qualche altra applicazione.
È una sorta di ritorno alle origini per Windows. Nel 1988, quasi vent’anni fa, Windows Nt 3.1 (l’antenato dell’attuale Vista) si presentò sulla scena con un kernel poi non molto diverso, per dimensioni. In pratica tutte le funzioni base del sistema operativo necessarie per gestire la memoria, l’organizzazione dei files e dei processi di calcolo. Il resto invece assegnato ad appositi moduli (interfaccia grafica, protocolli di rete..) che il kernel avrebbe caricato e scaricato ogni volta, a domanda.
Fu un approccio non molto efficiente (richiede un continuo uso di memoria Ram e di capacità di calcolo), dato che la stessa Microsoft, nella versioni successive di Nt (e poi Xp) fece gradualmente “ingrassare” il kernel inserendovi prima la gestione dell’interfaccia grafica e poi dei protocolli di rete e di alcune periferiche. Fino a Vista, che nel kernel ha persino complesse funzioni di visualizzazione tridimensionale, velocissime ma costose.
Alla fin dei conti (e analoga fu l’esperienza di Apple, Ibm e dello stesso Linux) si capì che su un pc monoprocessore e a larga disponibilità di Ram e dischi la necessità di un sistema operativo altamente modularizzato non era poi tanto impellente, anzi i costi ne superavano i benefici reali.
Oggi però il microkernel sta tornando in auge. I microprocessori diventano multicore, la compatibilità tra dispositivi personali piccoli (come telefonini, videocamere o lettori Mp3) e pc è sempre più importante. E soprattutto il futuro sta nell’incorporare software in oggetti diffusi e cooperanti, dove un piccolo kernel più una singola applicazione può fare la differenza. E MinWin (su cui stanno lavorando circa 200 ingegneri Microsoft) può per esempio replicarsi su 256 processori e lavorare in un sistema coordinato (multiprocessing). Non solo: un microkernel, con connesso sistema operativo modulare è la miglior soluzione per ambienti di virtualizzazione, come Hypervisor, che consente di eseguire, sullo stesso pc, più ambienti operativi, nuovi e del passato.

Fonte.

Leggi l'articolo intero | Make a Comment ( None so far )

Aggiornare i driver disattiva Windows Vista?

Posted on ottobre 24, 2007. Filed under: News |

Roma – L’aggiornamento di certi driver di periferica potrebbe costringere i regolari utenti di Windows Vista a ripetere l’attivazione del sistema operativo. A sperimentare questo bizzarro e inatteso comportamento di Vista è stato il giornalista James Bannan, che in questo articolo apparso su apcmag.com racconta la propria scoperta.

Come molti sanno, Windows Vista contiene una tecnologia antipirateria che, tra le altre cose, monitora costantemente la configurazione hardware del PC su cui si è attivato il sistema operativo: se dopo l’attivazione l’utente apporta sostanziali modifiche all’hardware del sistema – ad esempio, aggiorna hard disk, scheda grafica e processore – Vista dà all’utente 30 giorni per riattivare il software: dopo tale data, Vista si pone automaticamente nella modalità di funzionamento ridotto, che permette all’utente di accedere al Web e poco altro.

Bannan racconta che è stato costretto a riattivare Vista, per altro con soli tre giorni di preavviso, cambiando esclusivamente la scheda grafica. Un comportamento apparentemente inspiegabile, visto che la giovane versione di Windows dovrebbe chiedere la riattivazione del sistema operativo solo in seguito alla sostituzione di due o più componenti hardware importanti.

Interpellato il supporto tecnico di Microsoft Australia, Bannan ha ricevuto un tool che permette di tracciare tutte le modifiche hardware apportate al computer dal momento della prima attivazione. Ebbene, nell’elenco dei componenti hardware sostituiti figurava, oltre alla scheda video, anche il controller degli hard disk.

“Il solo problema? Io non ho mai cambiato il mio controller dei dischi”, ha spiegato il giornalista. “A quanto pare il fatto che abbia aggiornato il software Intel Matrix Storage Manager (che contiene il driver per il controller, NdR), è stato visto come un importante cambiamento alla configurazione hardware del sistema”.

Ma perché il semplice aggiornamento di un driver dovrebbe essere equiparato da Vista alla sostituzione fisica del componente hardware? La spiegazione, secondo quanto confermato da Microsoft, è che il sistema operativo non legge gli ID hardware direttamente dalle periferiche, ma “si fida”, per così dire, di quelli riportati dai relativi driver. Ciò significa che se per qualsiasi ragione un driver, dopo l’aggiornamento, riporta un ID della periferica diverso dal precedente, Vista interpreta questo evento come la sostituzione fisica del componente.

Al momento è difficile dire se vi siano altri driver capaci di “confondere” Vista, ma Bannan è convinto che il proprio caso non sia isolato. Quale che sia l’incidenza del problema, la tecnologia di protezione di Vista presta ancora una volta il fianco alle critiche degli utenti: critiche che in passato hanno riguardato soprattutto il non trascurabile numero di falsi positivi generati dai check antipirateria. I più maliziosi sostengono che tali lucchetti rendano la vita più difficile agli utenti regolari che ai pirati, e per suffragare questa tesi citano le innumerevoli tipologie di crack per Vista presenti su Internet.

“A quanto pare stanno per essere apportati dei cambiamenti che dovrebbero rendere l’intera esperienza più user-friendly. Noi certamente ce lo auguriamo”, ha commentato Bannan. “È senza dubbio nell’interesse di Microsoft portare a conoscenza di queste modifiche il maggior numero di persone possibile”.

Fonte. 

Leggi l'articolo intero | Make a Comment ( 1 so far )

Una Nuova Tecnica Per Lo Spam: Gli Mp3

Posted on ottobre 23, 2007. Filed under: News |

 

Negli ultimi giorni, numerosissime persone stanno ricevendo messaggi di spam…la novità è che si tratta di file audio.
Questi file Mp3 vengono inviati come allegati alle mail di posta indesiderata. Aprendoli, si ascoltano le stesse informazioni che si potrebbero leggere nei messaggi dello stesso tipo: guadagno facile, viagra, sesso, e così via.
I file vengono inviati con nomi fasulli (come ad esempio bartsimpson.mp3 oppure justintimberlake.mp3 hurricanechris.mp3, allforone.mp3, carrieunderwood.mp3, elvis.mp3, baby.mp3, fergie.mp3, e bbrown.mp3.) che inducono all’apertura i meno esperti.
Spesso questo nuovo tipo di posta indesiderata viene utilizzata per creare scompiglio in società quotate in borsa, che nella maggior parte dei casi non hanno autorizzato la “campagna pubblicitaria”. Alcune società, interpellate, hanno spiegato di aver tracciato le e-mail, e che la maggior parte di queste proviene dalla Russia.

Almeno al momento sembra difficile per i software antispam bloccare questo tipo di messaggi: sia il corpo del testo che i brani audio sono stati studiati apposta per non farsi riconoscere e risultano, sia all’occhio umano che a quello elettronico, delle vere e-mail con tanto di allegato Mp3.

Il testo della mail potrebbe essere di questo tipo:

QUOTE

Hello, this is an investor alert

Exit Only Incorporated has announced it is ready to launch its new text4cars.com website, already a huge success in Canada, we are expecting amazing results in the USA.

Go read the news and sit on EXTO. That symbol again is EXTO. Thank you

maggiori info

Leggi l'articolo intero | Make a Comment ( None so far )

Strani avvisi di Google: We’re sorry…

Posted on ottobre 22, 2007. Filed under: Consigli e Suggerimenti, News |

“Siamo spiacenti… … ma non possiamo elaborare la tua richiesta in questo momento. Un virus o un’applicazione spyware ci sta inviando richieste automatiche e sembra che il tuo computer o la tua rete siano stati infettati.”

Alcuni di voi potrebbero probabilmente supporlo. Tuttavia non ci troviamo di fronte ad un comune messaggio di un antivirus per computer, bensì ad un avviso di Google che, qualche volta, potrebbe apparire al posto di una ricerca. Non ci credete? Ecco una prova in italiano (riproducibile):

Quindi Google si è messo a produrre un antivirus? Anche in questo caso la risposta è no. Più semplicemente, da un anno a questa parte Google ha iniziato a prendere evidenti precauzioni in termini di sicurezza su due fronti:

  1. da un lato per l’utente, con l’intento di salvaguardare la sicurezza del navigatore fornendo avvisi per siti potenzialmente pericolosi. Su questo argomento consiglio di leggere l’articolo Google e Stopbadware;
  2. dall’altro lato per la stessa Google. L’obiettivo del motore di ricerca è quello di cautelarsi il più possibile rispetto al fenomeno delle query automatiche, peraltro vietate dai termini d’uso di Google, generate al fine di ottimizzare risorse e prestazioni.

Ed è proprio il secondo punto ad aver richiesto, da parte di Google, l’implementazione di alcune misure di sicurezza preventive al fine di limitare l’uso indiscriminato dello scraping, una tecnica che si basa sulla richiesta ed analisi di una pagina web da cui viene ‘scaricato’ l’intero contenuto. L’obiettivo, inutile dirlo, è quello di eseguire query automatiche via Google, estrapolarne i risultati e gestire le informazioni attraverso tool o interfacce sostitutive a Google.

Quali sono le cause di questo messaggio?

Arriviamo dunque al succo del discorso: quali sono le cause che possono portare Google a mostrare questo messaggio?

Nonostante il contenuto del messaggio faccia riferimento alla possibile presenza di un virus o di qualche spyware sul vostro computer, non lasciatevi prendere dal panico.

L’ipotesi che realmente il vostro computer sia infetto è assolutamente remota, soprattutto nel caso in cui stiate leggendo questo articolo e le vostre competenze siano tali da far presupporre piuttosto l’uso di strumenti avanzati di monitoraggio per SEO.

Sono infatti questi software che, nella maggior parte dei casi, Google riesce ad individuare con una certa facilità. Tra i software più a rischio risultano:

  • Strumenti di analisi del posizionamento
  • Strumenti per l’analisi delle keyword
  • Strumenti per calcolare il page rank o ottenere informazioni su un sito in SERP

Tra questi programmi rientrano nomi noti, come ad esempio WebCEO o Keyword Analyzer. In passato, alcuni di questi strumenti sono anche stati bannati dagli indici di Google per violazione ripetuta delle TOS.

Attenzione, questo non significa che non dobbiate usare questi strumenti… solo siate scaltri nel configurarli in modo tale che il loro uso delle query automatiche non sia eccessivo in un breve lasso di tempo.

Disabilitazione totale o per query

Il messaggio di errore che avete visto nello screenshot non è il solo avviso che potreste incontrare. Esistono infatti due tipi di precauzione:

  1. Limitazione delle ricerche per la singola query, ovvero la casistica identificata nello screenshot pubblicato in apertura. In questo caso Google tenta di prevenire un comportamento che sembra essere ricondubile ad un singolo worm/spyware/virus circoscritto a specifiche query.
  2. Limitazione delle ricerche allargata che, come mostra lo screenshot seguente, si estende a qualsiasi query verso il motore di ricerca per un arco di tempo imprecisato. Questo è il caso “più problematico”. Google ha individuato che dal computer (o dalla rete in caso di intranet) è stato inviato un numero eccessivo di query, normalmente riconducibile ad una infezione o all’uso di software. In questo caso, per ogni query successiva è richiesta la digitazione di un codice CAPTCHA che autentica la richiesta come se fosse proveniente da una persona.

Non tutte le query sono uguali

L’utilità o meno di questo sistema, così come la sua efficacia sono argomenti al di fuori dallo scopo di questo articolo.

La parte più interessante del sistema, a mio avviso, è verificare come lo stesso sia modellato anche in base ai reali pericoli della rete. Questo significa sostanzialmente che il “peso” attribuito ad ogni query da Google per determinare, in combinazione con il fattore frequenza, la corrispondenza ad una query anomala è diverso da query a query.

Potremmo dire che la probabilità che la query sia “maligna” è data dal superamento di una soglia di sicurezza, corrispondente in modo banale ad un valore. Così come avviene ad esempio per i filtri antispam nell’email, ogni query parte da un valore 0 al quale vengono sommati dei punti a seconda di determinati fattori. Il numero di query è anomalo? Somma +N punti. Il tipo di query è a rischio? Somma +N punti. Il tipo di query è molto a rischio? Somma +N*2 punti.

Questo significa, ad esempio, che se cercate rapidamente con la query Powered by PhpBB saltando tra pagine non consecutive, potrebbe capitarvi di visualizzare il messaggio più facilmente che se cercate il mio nome.

Il motivo alla base di questo sistema è tutto sommato semplice da capire. Alcuni worm hanno obiettivi specifici, come spiegato sul blog sicurezza di Google, ad esempio quello di identificare vulnerabilità su piattaforme tendenzialmente a rischio come PhpBB. In una scala di pericolosità, invece, una query per il mio nome suscita minore preoccupazione… e certo, sono mica Kevin Mitnick io!

Come prevenire il problema

Prevenire è meglio che curare. La prevenzione, in questo caso, consiste nel limitare l’uso di software che inviano richieste automatiche a Google. Una sana manutenzione al proprio computer, tuttavia, non guasta mai, giusto per essere sicuri che il vostro hard disk non assomigli ad un allevamento intensivo di virus.

A volte quando si usano vari servizi Google, quali Google search engine Motore di ricerca di Google to search the web or Per la ricerca sul Web o Google Translate Google Translate to translate text or web page to your native language, you may occasionally encounter a Google Error message which saying “We’re Sorry” with the following text. Di tradurre il testo o una pagina web per la tua lingua nativa, è possibile che di tanto in tanto incontrare un messaggio di errore di Google, che dice “Ci scusiamo”, con il seguente testo.

Il sintomo sembra accadere quando hai troppo eccessivo o utilizzare il servizio di Google o server, o Google ha rilevato che il sistema di rete IP che si sta utilizzando ha cercato di abusare di servizio di Google, cercando scientemente troppe volte troppo Veloce, inconsapevolmente o da software dannoso sul proprio computer. In ogni caso, non sarà in grado di utilizzare principali siti di Google, per un periodo di tempo.

Di solito il divieto durerà per circa 24 ore, la soluzione di questo particolare errore di Google è di aspettare dopo 24 ore e si cerca di utilizzare nuovamente il servizio di Google.

Se avete bisogno di accesso e di uso di Google immediatamente, la soluzione è quella di provare ad usare il vostro ISP server proxy per l’accesso a Google (o, se si sta utilizzando il server proxy per navigare, cercare di rimuovere il proxy e di uso diretto di connessione ad Internet, invece).

Oppure cambiate motore di ricerca  

http://it.yahoo.com/

Questo problema viene accusato spesso dagli utenti fastweb, in quanto condividono lo stesso gateway con altri utenti della zona (qualcuno di questi potrebbe avere il PC pieno zeppo di virus).

Leggi l'articolo intero | Make a Comment ( 1 so far )

Realplayer Sotto Attacco

Posted on ottobre 22, 2007. Filed under: News |

Roma – Nel week-end RealNetworks ha distribuito ai propri utenti una patch urgente per le versioni Windows di RealPlayer 10.5 e 11 Beta: il fix sistema una vulnerabilità già sfruttata da alcuni siti per installare sui computer delle vittime trojan e altro genere di malware.

Symantec ha spiegato in questo post che la debolezza è causata da un buffer overflow contenuto nel controllo ActiveX ierpplug.dll di RealPlayer. Il bug potrebbe essere sfruttato per mandare in crash il programma o, nel caso peggiore, eseguire del codice a distanza.

Un exploit per la falla di RealPlayer, consistente in un JavaScript, è già stato sfruttato da alcuni siti web per tentare di eseguire sulla macchina remota un trojan denominato Reapall, a sua volta in grado di scaricare il trojan Zonebac ed altri tipi di malware.

Secondo gli esperti, gli utenti di RealPlayer potrebbero infettarsi semplicemente aprendo una pagina web maligna. Ciò può succedere esclusivamente utilizzando Internet Explorer o altro browser che supporti la tecnologia ActiveX: gli utenti di Firefox ed Opera, ad esempio, non corrono alcun rischio.

RealNetworks raccomanda agli utenti di RealPlayer 10.5 e RealPlayer 11 Beta di scaricare questa patch, e agli utenti di RealOne Player, RealOne Player v2 e RealPlayer 10 di passare a RealPlayer 10.5 e RealPlayer 11 Beta.

Fonte.

Leggi l'articolo intero | Make a Comment ( None so far )

Messenger, In Nome Della Sicurezza

Posted on ottobre 22, 2007. Filed under: News |

Roma – “Ma quale censura, se censurassimo qualcosa ci sarebbe la rivoluzione, in Italia abbiamo milioni di utenti, se si cambia anche solo uno spillo se ne accorgono tutti”. Non usano mezzi termini i responsabili di Microsoft Italia nel respingere le ipotesi avanzate da alcuni in merito al filtraggio di certe URL nelle conversazioni che si svolgono tra utenti su Windows Live Messenger.

“Il punto è un altro – racconta Microsoft a Punto Informatico – è che ci sono siti che approfittano della popolarità dello strumento e talvolta frodano gli utenti oppure più semplicemente mettono a rischio la loro sicurezza. E noi dovremmo stare con le mani in mano?” Nessuna censura, dunque, la tesi da sempre sostenuta da Microsoft rimane integra: se qualche URL “non passa” nelle conversazioni è perché si trova in una block list dell’azienda per un motivo o per l’altro. D’altra parte, sottolinea l’azienda, qualcuno ha forse dimenticato il caso Checkmessenger?

Esiste una protezione lato client, che è quella che consente, come opzione, di evitare l’accettazione di URL nei messaggi, ed esiste anche un filtering lato server. E nel caso specifico? Si parlava di eBuddy.com. “In quel caso – spiega Microsoft – si tratta di siti che cercano di utilizzare i servizi della nostra piattaforma. Nulla di male, ma noi non sappiamo come le informazioni vengono trasferite, quali siano le policy e gli strumenti utilizzati, non ci sono procedure certificate, ergo non possiamo che bloccare queste URL, cosa che avviene non in Italia ma a livello di corporation”. EBuddy.com è peraltro un sito esplicitamente dedicato a chi utilizza lo sparamessaggini di Microsoft o quelli di altri produttori. “Ad esempio – osservano i responsabili del servizio in Italia – con eBuddy non sappiamo quale sia l’utilizzo che viene fatto delle informazioni, e con quali logiche, oppure se la sicurezza adottata sia convincente”.

Ma quindi che fare se si vuole realizzare un servizio dedicato a quei software? Non si può fare? “Tutt’altro – racconta Microsoft – tutti i nostri prodotti sono sempre più dei web services, molti offrono API, altri SDK, dedicati agli sviluppatori. Se si vuole lavorare per molti di questi, il miglior punto di partenza è Windows Live Dev“. Non ci sono certificazioni ma vengono messi a disposizione di sviluppatori di servizi una serie di strumenti utili, standardizzati, utilizzando i quali si aderisce alle policy Microsoft e si può quindi a buon titolo evitare di finire in block list di sicurezza.

Fonte.

Leggi l'articolo intero | Make a Comment ( None so far )

Siti Compromessi: Ora Anche su Seeweb

Posted on ottobre 11, 2007. Filed under: News |

Marco Giuliani, malware analyst dell’azienda di sicurezza PrevX, ha pubblicato sul suo blog PC al Sicuro un interessante articolo che riporta alla luce il problema della compromissione dei siti web italiani. Si tratta di una disgraziata “moda del momento” in campo malware, quella di attaccare i siti web, compromettendoli e iniettando un javascript offuscato o un iframe che possa re-indirizzare i browser verso risorse nocive. Abbiamo già parlato ampiamente in news precedenti dell’attacco massiccio via Mpack che aveva colpito migliaia di siti web italiani a fine Giugno, “secondo modalità ancora sconosciute”.

Marco scrive: “Come si è parlato già addietro, il 2007 è diventato di diritto l’anno delle compromissioni dei siti web da parte dei malware writer. Si è parlato di Hosting Solutions, si è parlato di Aruba, si è parlato di alcuni siti di rilevanza nazionale infettati da iframe nocivi. Continuando nelle indagini, anche il noto fornitore di connettività e hosting/housing Seeweb sembrerebbe essere stato preso di mira durante questa ondata di pirateria informatica. Un discreto numero di siti web ospitati su alcuni server della nota società italiana sono stati alterati, molti dei quali sembrerebbero inoltre essere stati modificati durante queste ultime settimane. Poco meno di 100 siti web, di cui circa 70 ultimi arrivati, contengono nel codice della propria homepage un iframe che reindirizza il browser dell’utente ignaro verso un terzo server contenente codice maligno“.

Un nuovo popolare hoster italiano sembra quindi caduto vittima dei cybercriminali, ed a quanto pare gli attacchi sono stati condotti recentemente. Marco spiega: “L’infezione che ne deriva, in caso si utilizzi software non aggiornato, è il solito Rootkit.DialCall con sample aggiornati per evitare di essere individuati dai software antivirus. Il nuovo indirizzo IP utilizzato dai malware writer è 81.29.241.238, sempre appartenente allo stesso range degli indirizzi IP precedentemente utilizzati per la stessa infezione e facente capo al range generale 81.29.240.0/20 gestito da LLC GlobalWholesaleTrade … Sembrerebbe che gran parte dei server che ospitano i siti web compromessi siano basati su GNU/Linux Debian e web server Apache, sebbene alcuni siano ospitati anche su Microsoft IIS“.

Come per gli attacchi precedenti ai siti italiani, non è chiaro come sia stato possibile per i malware writer inserire iframe all’insaputa degli amministratori di siti web. Si è parlato molto nei mesi scorsi di MPack, un potente kit utilizzato dai cybercriminali diffondere e controllare su vasta scala i loro attacchi. Tuttavia gli strumenti inclusi nel kit non eseguono fisicamente l’hack di un sito web ma si affidano, normalmente, ad una lista di credenziali rubate. Alla luce di tutto questo gli amministratori dei siti non devono solo eliminare il codice iniettato nelle loro pagine ma soprattutto modificare le credenziali di accesso amministrativo per proteggere i propri siti. L’ipotesi del coinvolgimento di un exploit (e relativa vulnerabilità), ancora non conosciuto, resta valida.

Marco offre anche un aggiornamento dell’ultim’ora al suo intervento: “A pochissime ore dalla pubblicazione della notizia sembrerebbe Seeweb abbia rimosso tutti gli iframe dalle pagine infette. Tuttavia, sembra che qualche script automatico sia installato in alcuni server poiché – se è vero che Seeweb ha filtrato e pulito i siti precedentemente compromessi – sono apparsi pochissime ore fa altri siti infetti sugli stessi server, differenti dai primi“. Nuova allerta? O solo strascichi di una attacco ormai conosciuto su server ancora vulnerabli?

Fonte. 

Leggi l'articolo intero | Make a Comment ( None so far )

“Internet? È roba vecchia”. Parola dei suoi creatori

Posted on ottobre 6, 2007. Filed under: News |

Avete capito bene: secondo i pionieri della Rete, internet sarebbe ormai un’infrastruttura obsoleta. A rivelarlo un articolo del Wall Street Journal. Nel 1969 Larry Roberts del Pentagon’s Advanced Research Projects Agency progettò un programma, destinato agli enti di ricerca, chiamato ARPAnet che avrebbe permesso a più computer di restare connessi tra loro anche a distanza. Per le decadi successive, Roberts ha provato, spendendo circa 340 milioni di Dollari, a migliorare la sua stessa tecnologia, arrivando però al punto che oggi come oggi è obsoleta.

“Non possiamo più contare su questa tecnologia, che è vecchia di quarant’anni” ha spiegato il programmatore che ora ha 69 anni. La sua ultima invenzione è un “router di flusso”, che non fa altro che analizzare il traffico di rete convogliando su “strade” diverse dati di pagine Web, e-mail, telefonate VoIP, e così via. Ma Roberts non è l’unico tra i “creatori” della rete a pensarla così.
Dello stesso avviso Len Bosack, cinquantacinquenne co-fondatore di Cisco Systems: “La rete così com’è oggi – ha spiegato – è abbastanza inadeguata; per questo abbiamo annunciato di voler creare un sistema che permetta alle grandi aziende di collegarsi ai cavi sottomarini che hanno una velocità cento volte migliore delle attuali infrastrutture”. Il dibattito, dunque, è acceso, soprattutto in questi ultimi anni in cui più volte si è parlato di sovraccarico della Rete, dovuto principalmente all’avanzare della tecnologia e alle sempre più utilizzate telefonate low-cost via internet.

“La Rete non è stata fatta per permettere alle persone di guardare la televisione – ha spiegato Roberts – e lo so, perché l’ho creata io”. E se pensiamo che gli accessi, secondo una ricerca, dovrebbero aumentare del 264 per cento entro il 2011, sono sempre di più gli esperti che teorizzano che, prima o poi, potrebbe esserci un grande crash globale di internet.

Fonte.

Leggi l'articolo intero | Make a Comment ( None so far )

« Articoli precedenti

Liked it here?
Why not try sites on the blogroll...