Mainly Internet business, but also life mysteries and videogames

Autore: Alessandro Bonzi (Pagina 2 di 8)

Apple Mail El Capitan SMTP’s gone crazy! How to fix.

 

 

If you just upgraded to El Capitan Mac OS X, you may have expected a better Apple Mail.

AppLanding_Mail

While a better Apple mail is not what Apple has got to deliver us as priority (oh Eudora I miss you), there are worst things you may bump into as soon as you open Apple Mail with El Capitan the first time: all configured email accounts got SMTP settings mixed up! In fact, when you try to send an email, Apple Mail uses a random unconfigured SMTP server of your list. And everything was working perfectly before upgrading!

If you try to re-configure them by selecting each email account under Apple Mail -> Preferences -> Accounts and by setting back the correct Outgoing Mail Server (SMTP) using the pull down menu, well, they just don’t get saved and they keep on being unassigned.

Also my emails are all getting the lastest SMTP I configure despite the previous one I saved was different.

After some tries, I found out a solution to bring the SMTP’s back to work.

When you open the SMTP Pull Down menu for each email account you are going to fix, be sure to CHANGE THE NAME in the Description Field. This forces Apple Mail to re-write the entry plist xml file for that account, fixing it.

Screen Shot 2015-10-01 at 20.47.03

So open each SMTP entry, change the value in the Description field with a new one, close to save and you’re back with a working smtp Apple Mail in El Capitan.

Happy (Apple) Mail again!

 

Update 24 Oct 2015 El Capitan 10.11.1 seems to address this smtp issue.

fixed-smtp

 

How to move GTA V PC to a brand new Windows installation.

Last week I installed a brand new Windows 10. Not an upgrade of a previous 8 or 7. So I lost all my programs. While most of other games run out of the box even if not re-installed (steam games, battle.net‘s etc), my 61 GB Grand Theft Auto V did not run anymore when clicked.

moving gta5 on a new windows how to

But I really hoped to run it without re-installing it from scratch. Too big.

So this is how I fixed it. Using Regedit and just moving some files. Hope this can help someone else as well.

Boot and stay in windows 10. All these steps are done on windows 10 (the destination system) side. We assume your windows 7 GTA is/was up and running when on windows 7. I see my old windows with letter E:/ now.

And the new windows 10 is on letter C:\ of course.

First, take note where your Game is on now; in my case I installed it on an external hard drive which is now seen as letter D:\ so that I have D:\Program Files\Rockstar Games\Grand Theft Auto V (the 61GB size folder).

There are 2 programs to fix, the game and the “social club” program. Both need to be fixed to run GTA V.

LET’S START – First, let’s fix the Social Club things.

Remember the letters as seen from the new Windows: old windows E:, new windows C:, game is on D:

1. From the old windows, copy the E:\Program Files\Rockerstar Games\Social Club folder to C:\ so to get the copy in C:\Program Files\Rockerstar Games\Social Club; each time give permission to read if asked. Create the \Rockstar Games\ folder too.

In order to avoid losing the game progress, let’s copy the User’s profile too. This is under the old Windows’ document folder.

2. From the old windows, go into your C:\Users\YOURUSERNAME\ folder, then open Documents\, look for the Rockstar Games folder and copy it to the same position on C:\ This will preserve old games and profile unless you do want to start a new brand game.

3. Now run regedit.exe. Type it into the search windows input box and execute it. We need to create the missing keys for the game. Do the following steps.

On the left side of regedit window, look for and Open HKEY_LOCAL_MACHINE, then open SOFTWARE then scroll down and open Wow6432Node, then scroll down to the R letter. Since it’s a new Windows installation, we do not find any Rockstar Games entry and this is normal. See the following screenshot. CLICK TO ZOOM.

HKEY SOFTWARE Wow6432Node windows 10 gta v

4. We need to create the missing entries under Wow6432Node. So select Wow6432Node, right click on it, select NEW and select KEY from the submenu to create a new KEY called exactly (case sensitive) Rockstar Games. (check screenshots). At the end of the list your new entry will appear.

5. Select your new just added entry, right click to add a new KEY (as a son of this entry) and call it Grand Theft Auto V so that you finish to have:

Rockstar Games
└ Grand Theft Auto V

 

6. UNDER Grand Theft Auto V (as a son of its, so right click on it, do new and select key), add another new KEY called exactly “1.00.0000”, be sure to  include the quotes, they are part of the key name!

7. In the same way as we did at point 5, under Rockstar Games, ADD a new KEY called Rockstar Games Social Club

This makes the left side structure of Regedit looks like:


ROCKSTAR REGEDIT GTAV

These entries will tell the game that it is installed and it exists somehow. Now we need to populate these entries with data values so that the game finds itself.

8. Click to select Grand Theft Auto V. On the right side of Regedit we can see the name <-> value relationships. There is only one when we created it and we are not touching that at all. We just add new entries.

9. It’s easier first to ADD all new KEY names, then editing them one by one to set the values we want in them. Right click on the right side to ADD these new NAME. Some have spaces in it, other don’t. Be sure to do exactly as written here.

Game Type

Game Version

InstallFolder

Language

PatchVersion

10. Once all these names are added under Grand Theft Auto V right side panel of regedit, click on each of them and EDIT the current undefined value and set the following ones.

Game Type, type Full

Game Version type “1.00.0000”

InstallFolder, copy and paste the pathname you currently have for the 61GB game folder as seen under the new Windows, my case is D:\Program Files\Rockstar Games\Grand Theft Auto V

Language type it-IT – if you installed an italian version (I did) or en-US for ENG.

PatchVersion type 1.0.393.4 – note on August 15 my game was up to date to the latest available patch.

You must obtain the following result.

grand theft auto v regedit entries

11. Now click and select Rockstar Games Social Club

12. Add the following names.

InstallFolder

InstallLang

Version

13. Click and edit the values with.

InstallFolder copy and paste the C:\ pathname, that is C:\Program Files\Rockstar Games\Social Club

InstallLang type 1040 for italian or 1033 for english

Version type 1.1.6.1

You must obtain the following result:

rockstar social club regedit

When you do things in Regedit, they are saved automatically in Windows, so we’re done now and we can close Regedit.

Have you Social Club user and password on hand since you’ll be now asked to enter them again in the GTA V Launcher, but the game will now work again as before.

14. Head to D:\Program Files\Rockstar Games\Grand Theft Auto V\ folder and locate GTA LAUNCHER and double click it to run the game. We can also create a shortcut to it on the desktop since we don’t have any icon of the game in the Start Menu.

Hope this post can help someone like me.

Enjoy!

Da HTTP a HTTPS: server e sitemap

Recentemente abbiamo deciso di portare l’intero sito web da http ad https per via di alcune integrazioni che funzionano solo in https e per i recenti cambiamenti annunciati da Gogol (così come Google fu chiamato in tempi recenti dai alcuni nostri politici) sulla valutazione dei siti sicuri rispetto a quelli non sicuri a favore dei primi.

Al fine di evitare alcune gravi disattenzioni ho deciso di elencare qui i problemi più gravi in cui si può incorrere.

businessman in suit https

IL PROTOCOLLO HTTPS – Il primo problema è legato a come funziona il protocollo HTTPS.

Quando ci si collega al sito www.pizza.it, il protocollo HTTP (quello non sicuro di sempre) contatta il server del sito, comunica al server che cerca www.pizza.it e, se il server lo trova, lo negozia con successo e rende visibile il sito web.

Quando ci si collega al sito https://www.pizza.it, il protocollo HTTPS (quello sicuro) contatta il server del sito e comunica che c’è in arrivo una connessione sicura ma non dice niente altro a meno che il server risponda anche lui in modo sicuro. Il server allora cerca la prima configurazione sicura che conosce e da lì in poi può proseguire la negoziazione in modo sicuro con l’utente. A questo punto gli viene annunciato che si vuole www.pizza.it. Se www.pizza.it non c’è sul server, il server continua comunque a servire la prima configurazione sicura che aveva usato per comunicare, indipendentemente dal sito a cui appartenga.

In questo caso, per evitare che due siti di un stesso server, 1 sicuro e 1 no, si confondano e il secondo appaia come il primo, anche se non esiste in modalità sicura, si creano sul server delle configurazione sicure inutili (di default) affinché il server usi sempre quella per dialogare in https e affinché si blocchi nel caso il sito non esista (una trappola, praticamente).

Tale processo può fallire per i browser che non supportano la modalità di dialogo multipla su https, e può fallire per alcuni bot/spider non aggiornati e soprattutto può essere mandata online in modo errato, senza accorgersene.

TIP 1. HTTPS ON MULTIPLE VIRTUAL HOSTS ISSUE

Una volta configurato HTTPS su di un server che ospita più domini, controllate che la URL di un sito dello stesso server (e che NON sia https) non appaia comunque quando digitate la url con https, perché potrebbe non essere voluto e potreste trovarvi il vostro sito sicuro sotto la url di un’altra persona (cioè vedreste il contenuto di www.pizza.it apparire sotto https://www.mozzarella.com)! Il browser mostrerebbe errori sul certificato, ma bot di indicizzazione come il googlebot leggerebbero il sito generando nel tempo un problema di contenuto duplicato.

Dovete quindi creare il server SSL di default in cui intrappolare queste connessioni (tecnicamente sono delle “SERVER BLOCK” per virtual host apache2 o ngnix, ad es. in apache si configura un virtual host *:443 con “SSLStrictSNIVHostCheck on” default tale che dia un errore 444), ma se non potete modificare il setup del server, allora nell’header del vostro sito sicuro, inserite un controllo lato pagina web che blocchi ogni connessione che arriva e che sia all’infuori del dominio https che vi aspettate.

In PHP, se il vostro sito sicuro è https://www.pizza.it allora aggiungete:

if (isset( $_SERVER['SSL_TLS_SNI'] ))
{
if ($_SERVER['SSL_TLS_SNI'] !== 'www.pizza.it')
{
// uh, sto servendo un dominio diverso dal mio, bloccare!
header('HTTP/1.0 444 No Response');
header('Connection: close');
exit;
}
}

In mod_perl2 (se lo usate), il controllo nella sub{} sarebbe:


return Apache2::Const::NOT_FOUND if (($r->headers_in->{ 'SSL_TLS_SNI' } || 'www.pizza.it') ne 'www.pizza.it');

Il secondo controllo da fare riguarda invece le sitemap.

TIP 2. SITEMAPS, GOOGLE BOT e CANONICAL URLs da HTTP a HTTPS.

Se il problema principale di una misconfigurazione server come da punto 1 vi sembra grave, allora si può provocare un danno maggiore con le sitemap di un sito che cambia da http a https.

Che cosa succede infatti con il passaggio da http ad https con le sitemap e Googlebot? Che cosa fa Google nei proprio indici? Che pagine leggerà? Http o https? CHE COSA farà?

INDIPENDENTEMENTE da tutto quello che leggerete sui siti web, intanto GOOGLE deciderà spontaneamente di mostrare le vostre nuove pagine HTTPS anche quando gli starete passando SITEMAP con URL in http. Questo perché è una scelta di Google di spostarsi su https appena una pagina diventa disponibile con tale protocollo.

CANONICAL URL DISASTER – Il primo DISASTRO è che se passate in https e se per caso il vostro sito continua ad indicare url canoniche in http, allora su google le pagine saranno sostituite da pagine https, ma il canonico della pagina tenterà di invalidare la scelta di google, facendo piano piano perdere la visibilità della pagina, fino anche alla scomparsa stessa della pagina dai risultati di ricerca.

Per risolvere questo problema, la soluzione migliore è la seguente.

Mandato live il sito in HTTPS, creiamo sitemaps per tutte le URL in HTTPS da inviare a Google con il webmaster tools. Non vogliamo togliere le sitemap con le URL http ad oggi esistenti; queste servono per preservare l’indicizzazione precedente, ma poco dopo andranno dismesse.
Eliminiamo eventuali canonical url HTTP per trasformarle in HTTPS, oppure rimuoverle del tutto e inserire Redirect 301 lato codice verso le pagine https.
Lasciare che GOOGLE legga le url nell’indice HTTPS. A queto punto potete smettere di generare le SITEMAP in HTTP. Il webmaster tools (search console) che si usa per vedere lo stato di indicizzazione da parte di Google NON è lo stesso! Dovete aggiungere il sito con il dominio HTTPS in webmaster tools o vi perderete le statistiche sul nuovo sito! Il vantaggio di farlo dove c’è già configurato il sito http è che viene aggiunto SUBITO senza chiedervi la verifica di possesso del sito.

Attenzione, se non dite che le pagine HTTP sono diventate HTTPS con un 301 o con una tag canonical, rischiate di duplicare i contenuti e di duplicare il numero di pagine da leggere da parte del googlebot, perdendo quindi anche potenza di banda (numero di pagine lette al giorno).

Fatto questo dovete aspettare che piano piano Google vi porti al 100% in HTTPS (molto veloce). La velocità di lettura delle pagine da parte del googlebot non rallenta il cambio da http in https nelle pagine di ricerca, poichè il canonical o il 301 accelerano il processo indipendentemente dalle sitemap.

Happy HTTPS.

P.S. Se avete caricato un file nel disavow tool di Google per il sito http, ricordatevi che dovete ricaricarlo anche per il sito HTTPS perchè non viene trasferito da Google in automatico, anzi, rischiate di partire con un sito “nuovo” https già zoppicando.

Venerdì 13, il Solar Flare che fa impazzire il mondo (e Wind).

Venerdì 13 Giugno 2014, una data da film horror, è invece il giorno in cui sistemi di telecomunicazione sparsi per il mondo hanno subito un black-out elettromagnetico a causa di un Solar Flare, terzo di una serie già prevista dalla Nasa.

Ecco un grafico per farci capire dell’entità del problema.

6AM USA TIME FRIDAY 13 SOLAR FLARE

100% DOWNTIME WIND, 21% BLACKOUT VERIZON USA – Il grafico indica i problemi di rete che hanno portato al 21% del Black Out per Verizon, il carrier americano che alle 5 AM americane, circa le nostre 11 del mattino di Venerdì 13. In America non è stato l’unico servizio a manifestare problemi di blackout. Da noi lo stesso fenomeno ha causato il 100% del down-time di Wind per almeno 5 ore. Perchè da noi il 100% lo vediamo tra qualche paragrafo.

CAMPI ELETTROMAGNETICI E UN “MINI-MAX” FLARE – La NASA studia molto da vicino e attentamente il comportamento del sole. Esplosioni di plasma sul sole emettono radiazione che per la maggior parte delle volte ricadono sul sole stesso per via della forte gravità, e, anche quando viaggiano verso l’universo circostante, investono pianeti e lune senza causare troppi problemi.
Il problema è quando sul tragitto ci sono apparecchiature che funzionano elettronicamente. Un campo magnetico che varia di intensità che attraversa un materiale conduttore di qualunque genere esso sia, produce un campo elettrico che si propaga nello stesso. Se il conduttore è un’apparecchiatura che non è pronta a gestire tali sbalzi elettrici, essa va in corto circuito e smette di funzionare, se siamo fortunati. Più l’angolo di impatto tra il campo magnetico e il conduttore è vicino ai 90°, maggiore è il campo elettrico prodotto.
La NASA ha registrato tutti i flare di questi giorni, annunciando che quello di Venerdì 13 poteva essere “il più fastidioso della serie”, seppur classificandolo come un “flare mini-max” ovvero uno di quelli a più bassa intensità degli ultimi 10 anni di attività del Sole.

solar-flare-10-giugno-2014-nasa

FLARE DI CLASSE x1.0 IL COLPEVOLE – Il colpevole del blackout di Wind /Infostrada è un solar flare di classe x1.0. Questo è il flare del 10 giugno. Una particolare esplosione nucleare classificata dalla Nasa con X1.0, ovvero un tipo di radiazione “STRONG” che può provocare sulla Terra ampie aree di blackout alle trasmissioni radio, per almeno 1 ora dalla parte della Terra esposta al Sole. Inoltre i segnali di navigazione di bassa frequenza posso subire disturbi.

PERCHè DA NOI IL 100% DI BLACKOUT E IN USA SOLO il 21%? – All’ora dell’impatto con il Flare, l’Europa era quella più esposta al Sole; se il 21% di Verizon ha subito un Blackout, dovete pensare che per loro erano “solo” le 6 del mattino, quindi pensate a che cosa poteva essere se da loro fosse stato mezzogiorno come da noi. Inoltre in Europa, l’Italia è sicuramente più esposta della Svezia e, poichè non avremo mai report e dati dai carrier all’equatore (forse Wind potrà avere qualche report dalle sue partnership africane, ma di difficile accesso), pertanto ci terremo questo primato “naturale”, ovvero il primato di essere stati quelli tecnologicamente più avanzati e più esposti al flare “mini-max” del 13 Giugno 2014.

SERVER DOWN, HELP! – Non vorrei essere stato un tecnico di Wind-Infostrada. E’ già un panico quando un Server ha dei problemi, figurarsi quando i problemi non sono controllabili. Forse con qualche gabbia di Faraday in più sugli edifici avremmo potuto evitare qualcosa, ma non certo i satelliti. Come ogni problema, ce ne deve accadere uno serio per poi decidere di sistemarlo. E magari ora qualcuno seguirà maggiormente i “news feed” della NASA.
Inoltre mi piace pensare che, di tanto in tanto, la natura ci ricorda chi comanda nell’universo, anche se noi stessi, vorrei ricordarle, siamo una sua (buona) invenzione.

Al prossimo flare… forse?
Adios.

Il dio di Godus è Peter Molyneux

Popolous, Black & White, Theme Park, The Movies, Fable, Fable III sono alcuni videogames che hanno fatto la (solo mia?) storia.

Ancora oggi i miei nipoti giocano a Fable III perchè ha questo particolare atteggiamento nel parlarti e guidarti, carismatico e unico nel suo genere, forse superato solo da The Movies, nel quale decine di piccoli dettagli di gioco lo rendono ancora oggi (a soli 8 anni di distanza…) assolutamente divertente e attuale (ad esempio per tutto il tempo del gioco, una radio racconta le novità dal mondo, dal 1900 al 1980, con molta ironia e ricercata ignoranza yankee (cioè americana — il designer è nato in Europa).

Ebbene a 50 anni di età, Peter Molyneux, il designer di tutti questi giochi (e altri) si rimette in gioco, fonda la 22cans e crea un gioco chiamato Godus.

SEI TU FORSE UN DIO? – In tutti i suoi giochi si è sempre un pò un dio. In Popolous sei un dio che plasma le terre e le popolazioni, in Black&White sei un dio che combatte altri dei e la tua forza pervade grazie a fedeli abitanti della tua terra. In Theme Park sei il costruttore del parco, in The Movies sei il direttore degli studi di Hollywood, di ribelli attori e attrici, in Fable sei nella fiaba in cui il lieto fine è diventare re o regina e in Godus sei il dio che grazie al “credo” di esseri viventi potrai aiutarli (o anche no) a crescere e a combattere.

Ma il vero dio in questi giochi non siamo noi, è lui, è Peter Molyneux. Si rimette in gioco, raccoglie più di 500,000 dollari dagli utenti del web (i cosiddetti “backers”) e costruisce un gioco di cui ogni settimana mostra lo stato delle cose attraverso video su youtube e tweet. E potete scommettere sui dettagli del gioco, quelle piccole cose che renderanno il gioco assai piacevole, unico della fattispecie: alla fine geniale.

 

IL DIAVOLO DEI GIOCHINI: CLICCA E RACCOGLI — Ma intanto da Fable a Godus, chi di noi non ha giocato con uno di quei giochi perversi in cui c’è da raccogliere qualcosa? Stile Farmville, diciamo, ma magari più intelligenti e meno pionieristici, dei primi tempi, per così dire. Basta citarne un pò tra i più “reddittizzi” per tirarvi in causa. Il villaggio dei puffi, Trade Nations, Tinyzoo, Tiny Town, Dragonvale, i Simpsons, Jurassic Park, Puzzle Craft, MT Gataways, Little Kingdom, Tiny Tower e pure Galaxy Life.

Tutti questi giochi hanno in comune che dopo un pò di ore di gioco dovete passare metà del vostro tempo a cercare e premere sulle costruzioni per raccogliere qualcosa, fino a quando vi stancate e smettete di giocare. Giochi progettati dal diavolo! Noiosissime bombe a tempo! Eppure continuano tutti su questa strada e giù a raccogliere… tanto che pure in Godus si deve raccogliere il “belief”, cliccando sulle case degli abitanti.

 

IL CLICCA E RACCOGLI DI GODUS — No! Pure Molyneux? Pure il genio del design dei videogiochi è caduto in questa trappola e ci farà cliccare ogni casa per tutto il tempo? “Bè”, scrivono i maligni tra i commenti di youtube, “d’altronde non ha molta esperienza di app e mobile, no?”.

Ma qui invece arriva il vero genio. Senza avere fatto alcuna app alla farmville, Molyneux presenta la beta di Godus a Gamespot e a un certo punto dice: “… se pensate che cliccare continuamente sulle case per raccogliere il credo sia noioso, bè… può esserlo; allora, costruendo una statua al centro delle case, essa diventerà l’accentratore di tutto il credo di una zona, e basterà cliccare solo 1 volta sulla mega bolla per raccogliere“. Et voilà! Risolta la noia di tutte quelle app, che da anni infestano il mio tablet, con 10 minuti di idea. Mi sembra così semplice, eppure, nessuno di quei giochi ci è mai arrivato. Avrei certo continuato il mio mega villaggio dei puffi se non avessi dovuto perdere 1 ora ogni volta per cercare i campi di grano e cliccarli.

Ecco come un click risolve ore di noia dei giochini in cui c'è solo da cliccare campi di grano o edifici!

Grazie Peter Molyneux! Se mai avessi avuto un dubbio a rimetterti in gioco e fare Godus, mi basta questa tua idea per comprare Godus (idea che poi tutti gli atri, spero per loro, avidamente copieranno).

Google, non è ora di buttare il Pagerank?

Il PageRank è uno degli algoritmi del motore di ricerca di Google, utilizzati per dare rilevanza ai risultati di ricerca. Alle origini di Google, fu il solo e unico algoritmo creato dai due fondatori (Brin e Page appunto), sufficientemente innovativo da sbaragliare in poco tempo TUTTI gli altri motori di ricerca.

SEO Backlinks Pagerank image

A causa del successo di Google, mentre gli utenti erano sempre più felici di poter usare un motore così innovativo, dall’altra gli operatori del settore si ingegnavano a cercare modi per apparire in cima ai risultati. Poichè l’elemento principale della formula del PageRank è il “link”, chi ti linka, chi tu linki e come ti linkano, gli operatori del settore vollero sperimentare QUALUNQUE sistema (lecito ed illecito) per imborgliare il sistema di Google.

LE DUE FASI DI GOOGLE, DIFFONDERE E NASCONDERE — A pochi anni dal lancio di Google, il PageRank divenne il punto di riferimento per stabilire il successo di ogni sito Web. Sistemi come Alexa passarono subito in secondo piano, benché comunque autorevoli. Oggi, ogni sito web ha associato un numero che indica quanto si è autorevoli agli occhi di Google.

LA FOLLIA, LINKIAMOCI TUTTI — In questa fase di adozione del PageRank da parte di ogni Webmaster e operatore web, Google creò ad esempio la toolbar con la quale si permetteva di vedere il PageRank dei siti. In questi anni di cecità del Web, il mondo si popolò di Siti di Directory, Siti per Scambio Link, Siti con Footer simili alle Pagine Gialle, Siti pieni di Pagine e queste Pagine piene di Link, Link nelle firme, link camuffati, link dalle immagini, link in pagine nascoste, link di link di link, tutto per aumentare il PageRank dei siti linkati.

Come una falla in una petroliera carica e fuori controllo, Google interviene e introduce una serie di modifiche agli algoritmi della rilevanza che mitigano (a dire di Google) l’importanza del PageRank. Ma il Web degli operatori non ci crede, e mentre Google progetta e manifesta sistemi di confusione di massa, i link continuano a rimanere il caposaldo della rilevanza e, imperterriti, aumentano con tecniche nuove; link nascosti, link dai blog, link dai blog post, blog di link, link nei template, link dei link dei link dei link, siti di contenuti poveri, ma di link autentici, schemi di link, link dai Social, Siti cammuffati da Social, link hackerati, link rubati, link ovunque pur di far salire il PageRank.

E non serve nemmeno che Google rallenti la pubblicazione delle informazioni sul PageRank, poichè nel frattempo invece di un blog, gli operatori fanno 10 blog, invece di 1 articolo, fanno 100 articoli tutti uguali per chi legge, magari diversi per Google, invece di pagare uno sviluppatore, pagano degli hackers russi per far modificare WordPress di altri e nasconderci dei link. Poichè ogni cosa che appare sul Web diventa una copia di una copia di una copia (sempre per nasconderci un link da qualche parte), Google progetta armi di difesa chiamate “Panda” e “Penguin” (e chissà quanti altri animali farà diventare antipatici) per vanificare le copie di un blog, gli schemi di link, le pagine inutili con solo link, le pagine belle con solo 1 link, e ogni tanto, è inevitabile, qualche sito innocente rimane colpito (dopo tutto è una guerra).

LE VITTIME DI GUERRA — I siti innocenti, vittime della guerra degli animali di Google versus il mondo degli operatori del Web, sono dapprima pochi, poi sempre di più, infine tanti e, ad ogni nuova versione dello Zoo di Google, i siti innocenti sono così infuriati che Google è costretto a relazionarsi per la prima volta direttamente al pubblico attraverso la figura di “Matt Cutts” tentando di far capire che “va tutto bene”. Ma la inconcludente tesi di Google per la quale contano altre cose e non i link non fa smettere la fuga di petrolio e il Web si inquina sempre di più, le vittime innocenti aumentano sempre di più fino a quando Matt Cutts, oggi 1 Agosto 2013 ieri 1 Agosto, rispondendo ad una domanda di un webmaster, dice “Sì, vi daremo qualcosa per capire di più sui link che vi danneggiano”, un passo di Google che ammette un problema oramai troppo grande da lasciare in secondo piano.

Ma mentre Google prende tempo sedando le lemente con promesse storiche, di soppiatto modifica le linee guida aggiungendo nuove regole sempre più restrittive sui link, come ad esempio “se fate una press release e mettete un link, il link non deve avere come obiettivo quello di modificare volutamente il PageRank”, oppure “Se vi fanno un Articolo che parla del vostro sito, e SECONDO NOI quello è fatto per modificare il PageRank, allora sarete declassati”, oppure “se fate delle interviste e vengono pubblicate con dei link che SECONDO NOI hanno lo scopo di modificare il PageRank, sarete puniti”.

 

Insomma, Google,  facevi prima a scrivere “Non fate più link perché altrimenti violate le guidelines”.

 

Anche perché, è proprio colpa di questo PageRank se i risultati di ricerca sono 3 buoni e 7 “pompati”. Non è ora di fare davvero qualcosa di “non evil” come, ad esempio, prendere il PageRank e rottamarlo?

IL FUTURO È GIÀ NEL PASSATO —  Una delle mosse più intelligenti di Google fu anni fa quella di comprarsi Urchin, rinominarlo in Google Analytics e darlo a tutti gratuitamente. In questo modo Google è diventato negli anni l’NSA del Web. Sa dove si trova un utente in ogni momento, quello che fa, come lo fa, se torna indietro da una pagina web, oppure se sta su di un sito. Grazie a questi dati, Google oggi può stabilire in base al comportamente dell’utente se un sito web è “utile” o “meno utile” . Quando si fa una ricerca e si segue un risultato, si visita un sito e se non è quello che si cerca, si torna indietro e si va al risultato successivo, Google lo sa. Può collegare questo comportamento ad un punteggio di Qualità, il quale farà scomparire dalla ricerca quell’inutile sito. Con questo metodo, non mi interessa se il sito appare perché linkato dal link del link; semplicemente è l’utente a castigarlo e la guerra potrebbe finirebbe con gran beneficio di tutti.

Sperando di non scoprire poi  di non essere in una guerra, ma in una battaglia.

E alla fine vinse LeChuck!

La Disney ha appena chiuso definitivamente la Lucasarts.
Per quelli che non sanno molto di Videogiochi, la Lucasarts ha creato alcuni dei giochi più famosi del passato, uno tra tutti The Secret of Monkey Island, un’avventura grafica con protagonista cattivo un pirata demoniaco di nome LeChuck e tra i buoni un aspirante pirata chiamato Guybrush Threepwood.

monkey island glad to be dead

Ai tempi dell’Apple II, il sottoscritto e altri fortunati possessori di un Apple IIgs (di cui uno si faceva chiamare non a caso Guybrush Threepwood) realizzammo una demo fatta per stare in un floppy da 800K dell’introduzione del primissimo capito dell’avventura di Guybrush Threepwood, composta dalla sigla, i titoli animati e una specie di scena in cui alla fine veniva mitragliato il CEO della Sierra On-line, la casa concorrente della Lucasarts. Il demo fu spedito alla Lucas e dopo mesi ricevemmo una lettera con dei ringraziamenti e un poster di Monkey Island in regalo.
Dalla demo, qualcuno ha estratto la musica dell’ultima parte: è convertita in mp3 e scaricabile qui.
Con la vendita della Lucas alla Disney era quasi inevitabile che tutti i fronzoli venissero tagliati; che farsene di una divisione che c’è già?

RON GILBERT — Tra i tweet di Ron Gilbert, il celebre geniale inventore delle avventure della Lucas (ricordiamo Maniac Mansion ad esempio), si legge un pò di sarcasmo e un pò di punzecchiate alla decisione della Disney (ma anche a quella della Lucas per precedenti decisioni sulle proprietà intellettuali di quei giochi), tanto da dire che se mai dovesse succedere di rientrare in possesso delle IP di Monkey Island (che avendo creato, avrebbe dovuto possedere, da qui il sarcasmo verso la stessa Lucasarts), farebbe subito un Monkey Island Cart Racing game e non un’avventura… Gilbert ha appena rilasciato un bellissimo gioco chiamato The Cave (anche se non in italiano) e ora sta lavorando su di un gioco stile bejeweled per i tablet.

LA TELLTALE GAMES — Recentemente comunque sono state rilasciate le Tales of Monkey Island da parte della Telltale Games, una software house che, per licenza della Lucas, ha prodotto 5 capitoli del seguito di Monkey Island, sfortunatamente non localizzate; visto il deludente successo worldwide, probabilmente la localizzazione non avverrà mai.
Telltales per ora non sa esprimersi su che cosa cambierà con il passaggio dei diritti di Monkey Island dalla Lucas alla Disney; il forum è per ora riempito da tante domande e futuristiche supposizioni da bar da parte dei fan.

LA VOCE DEI FAN — Ovviamente i fan vorrebbero un reprise di Monkey Island ogni anno; per loro qualunque speranza non è vana e viene coltivata ed esasperata appena possibile, che sia Telltale, Gilbert o la stessa Lucas a licenziare il prodotto ad altri. Certo, non si vuole avere un “Mickey Island”, ma quello che direi con convinzione è di non dar nulla in mano ad Electronic Arts, visto l’esordio di Sim Shitty (SimCity) 2013, i cui forum continuano ad avere centinaia di pagine piene di persone che perdono le proprie città, o come al sottoscritto, di vedersi apparire la città di … un altro (che ho ovviamente subito depredato nel buon stile di Guybrush Threepwood, temibile pirata!).

Qualcosa è sbagliato in Apple… qualcosa è giusto in Apple.

Negli ultimi anni il profitto netto generato dalla business unit di iPhone ha raggiunto quasi il 50% di tutto l’utile Apple.

Presentando iPhone, Jobs disse che ad Apple bastava il 5% di un mercato enorme come quello dei Cellulari per cambiare il futuro dell’azienda. A quel tempo Apple aveva già stupito il mondo con l’iPod: con iPhone ha stupito ancora di più.

LA APPLE DI TIM COOK – Apple di Tim Cook ora sta affrontando un “nuovo” mercato. C’è Android e Google che finalmente, dopo eterni tentativi, ha sul mercato qualcosa di decente (via Samsung comunque e non direttamente), ma si continuano a leggere report sempre più confusi su chi lo ha più lungo. A sentire Google, sembra che il marketplace di Google Play vada già meglio di quello di Apple iTunes, ma poi altri report “neutrali” danno dati diversi. Larry Page ha smesso di twittare il numero di attivazioni di Android dopo che da 50 a 500 milioni qualuno gli ha fatto notare che non si devono contare le attivazioni per device (10 ripetute valevano 10) ma per utente (che guarda caso ora è il dato che Google usa per misura Google Play).  E a 10 anni di distanza Google ancora fa soldi solo da un solo e unico modello di business, la Search (90% delle Revenues per il Q2-2012, e il resto del 10% è… Motorola!).

Ma Apple è cambiata. Ora vuole pagare dividenti ai proprio azionisti (urrà, direi!), ha una concorrenza mai vista, ha sostituito Microsoft con Google nella guerra del PC vs Apple, ma la prima sta tornando (forse) e soprattutto Apple continua a mantenere “fede” alla sua politica di prezzi alti a dispetto di un intero mercato di spettatori convinti (ad oggi senza ragione) del contrario.

LE COSE SBAGLIATE DI APPLE – Ma gli spettatori non posso che notare cose “sbagliate”.

BAD 1 – Gli utenti oggi sono testimoni dell’uscita dell’iPad v4 e fino ad un’ora prima a nessuno veniva bloccata la vendita dell’iPad v3 ora fuori listino e Apple nemmeno parla di un “rebate” o un coupon code per questi ignari (e vittime) acquirenti; traditi aggiungerei.

BAD 2 – C’è un Safari 6.0.1 sul MacOS (con molti problemi e un Web Inspector peggiorato) e su iOS ancora non si vede; su iOS c’è ancora la versione in cui la URL bar non fa le ricerche e dell’update non si vede nulla (Apple testarda).

BAD 3 – Le Mappe di Apple? Per fortuna c’erano Applicazioni esterne per girare e trovare i Negozi a New York City. Le Google Maps via Web? Impossibili da usare e frustranti. Ma devono essere per forza solo questi 2 player a fare le cose?

BAD 4 – Viene annunciato un iMac, ma acquistabile solo tra 2 o 3 mesi, intanto annunciano specifiche, ma il prodotto “non s’ha da fare”, poichè prima han bisogno di produrre più iPad e iPhone.

Già, a proposito di iPhones e iPad.

Bastano 35 ore per mandare in “2 to 4 weeks” di attesa la disponibilità dell’iPad Mini 16GB. Il messaggio sembra “li hanno venduti tutti, che bravi”, ma qualcuno legge “ne hanno prodotti pochi”, mentre gli analisti capiscono che significa “non siete in gradi di produrre più di così”.

BAD 4 – E sembra proprio che gli analisti abbiano ragione. Al Q4 e Q3 del 2011 e al Q2 e Q3 del 2012 Apple lamenta un problema di “unità consegnabili”. Ne fan poche o si sono affidati troppo alla taiwanese Foxcomm e alle sue fabbriche in Cina? Perchè non ci credo che li vendano tutti e che siano contenti visto che in borsa, ogni volta, vengono invece castigati. E le fabbriche annunciate in Brasile avranno effetto per il 2013.

BAD 5 – Ma è peggio, se andate all’Apple Store più prestigioso in USA, quello in 5th Av. a New York City, scoprirete che negli ultimi 7 giorni non ci sono iPhone 5 da acquistare perchè… esauriti! ma nemmeno i nuovi iPod, in arrivo, e del mini Mac, bè, o arrivate 2 giorni dopo l’annuncio o non ne trovate. Ah, ovviamente trovate gli iPad 3 fino a 1 minuto dall’uscita del 4, quelli non si trattengono dal venderveli.

BAD 6 – Nello stesso momento in cui tutti questi aspetti si accavallano, Apple aumenta il prezzo minimo delle Apps da 0,79 a 0,89€. Immagino non ci sia un “declino” di acquisti nelle Apps più economiche e certo questa manovra porterà in Apple un aumento dal 3 al 5% delle revenues dalle Apps. E’ una manovra che tenta di arginare la situazione dei prossimi Quarter o era prevista da tempo?

Qualcosa di giusto in Apple, sono i Numeri. Date un occhio ad un pò di numeri sulle Apps.

Source: Fortune/CNN Reports, Dismito, Google and Apple Keynotes

  • Year 2010 Apps disponibili, Apple:Google rapporto 6:1
  • Year 2011 Apps disponibili, Apple:Google rapporto 8:1
  • 2011: circa il 15% delle Apps Apple scaricate sono a pagamento; dal 11,6% del 2010;
  • 2011: se in italia le top 50 vengono scaricate 2000 volte, in USA le top 50 sono scaricate 25,000 volte.
  • 2011: il costo medio per Apps è di 1,06€;
  • 2012: Apple ha dato ad oggi 6,5b$ agli sviluppatori; Google molto meno di 1b$;
  • Q3 2012: Apple fattura 1,8b di dollari a Quarter dalle Apps.

Insomma, benché non stia succedendo nessuna delle catastrofi augurate dagli Androidiani (anzi, lato loro la frammentazione dell’OS sta peggiorando a discapito di qualità, revenues e solidità delle apps), visto uno Store di Amazon semi deserto (e quando esce qualcosa, c’è già per Apple) e quello di Microsoft peggio del deserto del Gobi, se non fosse per gli stupendi MacBook Pro sul mercato, un ottimo Mini Mac e un iPad mini molto attraente, l’hype che circonda Apple non può fare altro che metterla sempre più in difficoltà. Il mercato è stato abituato alle “rivoluzioni” dell’iPod, di iPhone e anche di iPad aggiungerei che ora si aspetta davvero tanto da Apple.

E allora per i prossimi mesi, che parlino le Net Revenue! e che si sveglino a spostare la produzione fuori dalla Cina! E poi siamo pronti per la prossima Next Big Thing.

Per ora da Google e Microsoft non arriva nulla di nuovo, su questo siamo tranquilli 🙂 Anzi forse più cookie e tracking di quello che facciamo su Internet.

 

 

Link Building e Black SEO, 3 milioni di URL, 30 Bad Bot e 3000 IP Proxy — un caso vero

In questi ultimi anni, uno dei siti che manteniamo per un cliente particolare è un sito di bookmarking. Esso permette di caricare bookmark dal proprio Browser o aggiungere Url nei preferiti e condividerle con il pubblico, trovare siti collegati e informazioni varie. Il servizio è stato sviluppato per il mercato in lingua Inglese. Fin qui nulla di speciale.

BLACK SEO, WHITE SEO, SPAM SEO — Una delle caratteristiche del sito di bookmarking è stato quello, per sua fortuna o sfortuna, di essere inserito nel corso degli anni in una marea di siti di “Submit gratuiti” operati da società di white (buone) e black (cattive) SEO. Esattamente quelle pagine che non usereste mai per un vostro sito.

Come sapete creare LINK verso il proprio sito è alla base della visibilità nei risultati di ricerca di Gogol (ndr. Google), ovvero più hai link e più sei bello. Benchè Google ne dica, se non avete link verso il vostro sito, non esistete (salvo siate nelle segretissime White List di Google come “sito indispensabile” o “brand affermato non penalizzabile”).

Un sito di bookmark è quindi perfetto per una invasione di “link” da parte dei “black” SEO. Queste società creano pagine di FREE submit (tipo questa pagina, una delle tante osservate, backlinks.auto-im.com/freepack/free.php ), promettendo in 1 click fino a 200,000 backlink. L’abilità di questi SEO è quella di trovare un sistema per inserire link nei siti di altri e tali da poter replicare l’inserimento in modo automatico e continuativo nel tempo.

Una volta che il FREE Submit è sviluppato, gli stessi SEO sviluppano anche sistemi di verifica del vostro link per evitare che sia cancellato. Questi tools si fingono utenti con tecniche più o meno legittime e come un robot vengono a vedere se il link è presente nelle pagine del sito di Bookmark. Siti come Seostats o Seotools, ad esempio, per ogni URL che inserite nel form di verifica, un fastidioso robot viene sulle pagine del bookmark a controllare la presenza del link.

Ma la cosa non si limita a servizi online. Alcuni software fatti per inserire migliaia di articoli o link in altrettanti migliaia di siti (ovviamente non hanno nessun accordo con nessun sito) semplicemente si fingono utenti e inviano i dati attraverso dei robot e ne gestiscono pure la verifica successiva e continuativa. Ad esempio, nel 2009 un (in)famoso software chiamato Autoclick Profits vendeva per 149$ il sogno di enormi guadagni con un click. Scaricando il software si accedeva ad un tool per inserire migliaia di articoli o link in migliaia di siti online (tra cui il sito di bookmark), e gli stessi link potevano automaticamente trasformarsi in URL compatibili con sistemi di affiliazione come ClickBank grazie al quale si guadagna cliccando.

 

UNA MAREA DI URL — Sta di fatto che con il passare degli anni, il sito di bookmark raccolse i seguenti dati.

Periodo Gennaio 2010- Dicembre 2011

28,186 Url Web .it — inviati in modo “non naturale”;

2,976,560 Url Web in totale inviati in modo “non naturale”;

29 “bad bots” — sistemi malevolenti per l’invio di url;

2976 “Proxy” — utilizzati per inviare i dati;

1 tentativo di SQL Injection;

1 virus.

E le attività dei SEO non sono diminuite negli ultimi 7 mesi del 2012.

Poichè il sito di bookmarking non ha scopi di link-building o “black” SEO e fintanto che le URL inserite non vìolano  regole stabilite o di SPAM, nulla è stato fatto per evitare tale attività (tranne per i bot ostili e non tollerabili).

 

UN COSTO DI GESTIONE OLTRE BUDGET — Ma qualcosa non va. Questo è un solo sito di “pagerank 3” come milioni di altri. Se una attività di black seo permette di creare 3 milioni di link (2 univoci più o meno) in 3 anni di tempo, quanto vale questa attività su larga scala? Sicuramente parecchio in quanto ad ogni cambiamento delle pagine del sito di bookmarking, i BOT e gli SPIDER si adeguavano regolarmente.

Chi ci tutela? E’ possibile che si debba pagare per lo SPAM link di migliaia di altri siti? Poichè un LINK-IN è alla base della visibilità in Google, il mondo oggi paga questa decisione e non ottiene nulla in cambio da chi ne gode.

 

ARRIVA LA GOOGLE PENGUIN UPDATE, I COSTI AUMENTANO! — Con Novembre 2011, improvvisamente il costo “tecnologico” e di “gestione” di questo problema aumenta esponenzialmente.

Poichè i possessori dei siti che venivano inseriti erano spesso IGNARI delle tecniche di black seo che a loro insaputa avevano assunto e pagato anni prima come consulenza da parte di abili “società di posizionamento”, essi iniziarono a sentirsi dire da altrettanti consulenti che “un link-in sbagliato può punire”. Ovviamente tali voci non nacquero a caso; se i link-in non possono di certo penalizzare (al massimo non contano nulla), nessuno ne ha la certezza e il mondo si preoccupa per un cambiamento “epico” nelle regole del gioco.

Nel Marzo 2012 le voci prendono fondamento e Google annuncia PENGUIN e invia “mail” ai webmaster i cui siti sono linkati da url “non spontanee”. Toh, guarda, e ora che faranno quei 2,000,000 di webmaster? Poichè non esiste una regolare iscrizione per avere inserito un link nel sito di Bookmarking, per i webmaster è altrettanto impossibile rimuoverli.

Da Marzo 2012 le richieste a bookmark si trasformarono in una nuova tipologia di richiesta: le mail chiedevano la rimozione di link che ritenevano “impropriamente” inseriti nel sito, alcuni addirittura ipotizzando un uso illegittimo del link inserito senza la loro autorizzazione! Altri, sostenuti da un improbabile Google-zorro alla tutela dei webmaster, minacciarono di denunciare il sito a Google se il link non veniva rimosso prontamente. Inoltre, poichè questi webmaster (o agenzie di siti quando i siti erano “famosi”) dovevano mandare queste mail in quantità, non facevano spesso riferimento a URL o dati precisi e minacciavano IP e URL presto penalizzate se non si cooperava e altre fantomatiche… balle da web.

“[Editato per la Privacy] This link needs to be removed with immediate effect.

Google has been in contact with us and asked us to remove this unnatural link as it will penalise both the XXXXX.co.uk website as well as your website.
Google have also asked us to inform them of any websites that are not cooperative in this request, and to provide them with the domains and IP addresses of sites that do not comply with the request.”

 

Insomma, da ingenuo sito vittima di “abusi” il sito si trovò pure “beffato” e “accusato”.

Una delle comunicazioni del cliente ad un certo punto fu “sarebbe bello dire in faccia a questi webmaster come e chi gli ha inserito il link e di smetterla di fare richieste offensive visto che è certo che hanno usato società SEO poco attente”. Da questa osservazione, nasce di fatto anche questo post: di fronte all’immensa lista di URL che abbiamo visto e alle tecniche usate non si poteva far finta di nulla.

Il “removal di bad links” è oggi una delle questioni più traumatiche dopo l’introduzione di PENGUIN di Google, un algoritmo di controllo dei link che tenta di diminuire proprio il problema di link “non naturali”.

Il punto è che il Web fa intendere che un “bad link” significa un “bad website” e pertanto il sito che ospita link finti viene minacciato di “penalizzazione” (come si vede dalla mail di quel webmaster).

Per fortuna Google è molto più arguto e un bad link è in realtà “un link non naturale” e i siti che li ospitano — ignari o no che siano — “non subiscono nessuna penalizzazione“. Se ci sono penalizzazioni, sono sempre legate a interventi extra-algoritmici o gravi violazioni di contenuto (come sempre è stato fatto da parte di Gogol).

Ad oggi il sito di bookmarking continua a fare il suo lavoro, le tecniche di protezione dallo SPAM maligno non sono concluse, ma sono state implementate tecniche molto più adatte di quelle di anni fa e non so proprio come potrebbero fare 2,000,000 di webmaster se un giorno Google dovesse davvero penalizzarli.

 

da Leopard a MacOs Mountain Lion; che Safari ragazzi…!

MacOs Leopard è stato, secondo me, uno dei migliori aggiornamenti, se non IL migliore Mac OS mai installato sui miei Mac.

La spinning Wheel di Excel ci perseguita!

 

Non solo le performance erano strabilianti, ma l’intero Core del sistema era stato riscritto per sfruttare finalmente a pieno i 64 bit delle macchine fino ad ogni processo possibile. Ad esempio, se volevate stampare in PDF da Safari (e non fate quella faccia pensando a Safari!), il Print to PDF integrato di Apple (non serve quel dinosauro sempre-più-inutile-Adobe per fortuna), il processo che Safari lanciava per la Stampa e quello successivo per il Rendering del documento da HTML a PDF erano tutti regolarmente a 64 bit.

 

MACOS LION, LA CADUTA — Poi è arrivato Lion. Un Leone è “meglio” di un Leopardo: il Leone è il Re della foresta. Ma qualcosa non ha funzionato. Intanto Lion esce dopo gli anni peggiori di Jobs, il progetto è tutto in mano al nuovo direttore dei sistemi Operativi che è sicuramente distratto da iOs, il sistema dell’iPhone. Quest’ultimo sta dando così tanti numeri (positivi) per Apple, che dedicarsi a iOS è un attimino più importante di MacOS, soprattutto perchè Android arriva per la sua prima volta a una versione decente (la 4.0).

Pertanto arriva Lion, sostituisce Leopard e la prima cosa che fa è stabilire che il sistema di esecuzione dei processi non è più fatto “ognuno per sè”, ma “tutto dipende dal lui”. Pertanto Safari perde il suo motore di rendering per le pagine Web che Lion rende esterno ed eseguibile da qualunque parte lo si voglia chiamare. In questo modo se avete un’altra applicazione che vuole gestire un documento Web, questa può farlo con la stessa completezza di Safari (sia Apple Mail, iWorks o anche Excel, Autocad, un gioco, iTunes, etc); geniale, ma se usate al 99% la sola applicazione Safari, in Leopard i processi di rendering erano tutti suoi, ora invece sono condivisi e in attesa che anche qualcun altro li voglia usare, diminuendone la potenza nominale a disposizione.

Fin qui tutto già collaudato: è come in iOs. Ma il Sistema Operativo, che ora gestisce il processo, può anche bloccarlo con “urgenza” se necessario (es. c’è poca Ram, l’hard disk è molto impegnato altrove, etc). Prima Safari si arrangiava da solo, ora Safari non fa altro che delegare e sperare che i processi esterni siano sempre veloci. Ma non è così. Quando si vuole stampare documenti Web in PDF, Safari chiede al processo di Rendering la pagina Web; poi chiede al processo PDF la trasformazione da Web a PDF; prima tutti e due i processi erano in Safari, con LION non più.

In questo modo le operazioni di stampa e Rendering RIPETUTE rispondevano dal 20% al 50% più lentamente di Leopard. Più il Mac era vecchio e peggio pesava la concorrenza dei processi.

 

MACOS LION E IL “WHITE PAGE BUG” DI SAFARI — Nel giro di pochissimo tempo, la produttività del mio Mac con LION era diventata la metà dei tempi di Leopard. Safari spesso “attendeva” per lunghi attimi che i processi si liberassero dallo “swap” dell’hard disk gestito del Sistema Operativo. Se iOs è abbastanza protetto e generalmente l’utente fa una cosa alla volta in un iPad o iPhone, MacOS non è altrettano “mono processo” e quando il processo esterno di Rendering crashava per qualche motivo, TUTTE le pagine che usavo in Safari tornavano come se fossero state appena aperte (chiamato da Apple come il “blank page” bug), e sottolineo TUTTE, non solo quella che aveva causato il crash (alla faccia dei processi separati!). Ma ancora più subdolo era che le pagine in cui era stata effettuata una login tramite sessioni AJAX, ad esempio Facebook, esse rimanevano collegate all’utente, ma la pagina Web mostrava la pagina nuova di login!

Ad un certo punto della sua vita, il mio Safari poteva aprire 2 nuove finestre, una andava su Facebook e una su Google Plus, loggava su entrambe, e quando Google Plus faceva partire il processo (esterno) di rendering per Flash, questo, impegnando per qualche secondo l’hard disk, mi permetteva di farlo crashare (semplicemente chiudendo la finestra!), e Safari, crashando, generava un LOGOUT non solo da Google Plus (causa del crash per colpa di Flash), ma anche da Facebook (pagina diversa e regolarmente connessa), senza che nessuno avesse cliccato “esci da facebook” o “esci da gplus”. Infatti le sessioni di Facebook non erano realmente chiuse e chiunque avesse fatto “Refresh” di nuovo  avrebbe trovato il mio Profilo aperto e non la login!

Con LION ci sono state parecchie update di Safari, ma nessuna ha migliorato questo problema, anche quando Apple pubblicamente fece una update dedicata. Ovviamente era solo “diminuito” il bug, ma era semplice riprodurle e lasciare pagine loggate apparentemente sloggate con la tecnica di flash.

In un cyber cafè, faccio loggare un utente su Facebook, crasho il sistema con un Applescript e Flash e se tu utente te ne vai scocciato, vado lì, reloado Safari e sono sul tuo Profilo di Facebook.

 

I CLOUD, U CLOUD WE ALL CLAIM FOR A BETTER MACOS — Ma i problemi non erano solo di Safari. L’introduzione di iCloud in LION è stata praticamente impercettibile lato utente, mastodontica lato performance; per portare il cancello di iCloud, LION è diventato un insieme di processi e controlli di rete. Per muovere una connessione, non aspettava i tempi morti, ma al boot tutto e tutti dovevano collegarsi al mondo il prima possibile.

La conclusione? LION è stato un MacOS che ha disimparato a fare il lavoro “vero” per iniziare a fare mille cose di iOs, inutili. Se la rotella di attesa di Excel era diventata meno frequente, con LION la rotella di attesa di Excel appariva più di ogni altra cosa, e la gestione dei FONT, probabilmente delegata al sistema operativo rallentava sempre di più l’utilizzo di ogni applicazione che usasse font in modo estensivo.

 

MACBOOK RETINA SAVE ME! — La conclusione è stata che per continuare a lavorare con LION, dovevo cambiare Mac… non con un Windows, quello no, ma con un nuovo Mac. I difetti di LION dovevano essere corretti dalla potenza di un nuovo Mac. E così è stato.

Il Macbook Retina Display ha vissuto 1 mese con LION, rendendolo veloce come il Leopard di 4 anni fa! Un bel piacere, ma anche rabbia. Insomma, il boot in 2 secondi, lo shutdown istantaneo di Leopard erano tornati e non erano stati miraggi solo di un tempo che fu.

 

MOUNTAIN LION, ORA SI RAGIONA — Oggi è arrivato Mountain Lion. Oggi per modo di dire, è un pò che gira. Negli anni bui di LION temevo per il peggio: che Apple avesse perso la via accecata da iOS e dalla concorrenza (di Android), che nessuno più in Apple vedeva le imperfezioni di programmatori pigri e quindi processi o sistemi fatti male rimanevano tali e nessuno li chiamava alla Domenica mattina per una ramanzina (vedi Jobs e l’icona di Google Mail sull’iPhone 1), che sarebbe sempre stato peggio visto che il bug di SAFARI non è mai stato fixato realmente, così come altri problemi fixati solo dopo moltissimi mesi (se non anni per il flicker al nero di alcuni schermi del Macbook Pro unibody).

Oggi c’è Mountain Lion. Il rendering è tornato veloce, il processo esterno non è più “crashabile” con facilità, e se muore, non genera un “blank page bug” di tutte le finestre aperte di Safari che ora è alla versione 6.0; certo è più difficile rallentare un Mac nuovo per poter causare il problema, ma la prova del fuoco è un Excel che ora gira senza rotella!

Speriamo Apple non voglia fare di MacOS un iOS; magari mi sbaglio, ma io vorrei lavorare con questo Mac e non fare Gesture dalla mattina alla sera o stare collegato alla iCloud 24h su 24. Se magari ogni tanto pensasse alle applicazioni “classiche”, saremmo tutti un pò più operativi. Un iWorks come quello che abbiamo non serve a nessuno.

Ah… con LION nessuna applicazione riusciva ad aprirmi 2 GB di file XML, nemmeno Oxygen o BBEdit (quest’ultimo dava un terribile messaggio di altri tempi “OUT OF MEMORY”); ora invece riesco ad aprirlo e anche a consultarlo eppure è cambiato solo il Sistema Operativo.

SAFARI 6.0, UN WEB MIGLIORE?  — E con il Retina Display e qualche sito con grafica Retina, il browsing di Safari 6.0 è indubbiamente migliore di Chrome o Firefox. Tra l’altro Chrome continua a rimanere a 32bit quando oramai Safari è a 64bit da parecchi anni sul Mac.

UPDATE 1 AGo 2012: Stanotte Chrome si è aggiornato alla versione 21.0.1180.57 con RETINA DISPLAY (anche se ancora a 32 bit) e ora è un bel vedere anche con Chrome e non solo con Safari 6.

Quindi, viva Safari 6.0!

 

P.S. E’ con piacere che racconto di questo bug di Safari 6.0! Ma come? Di già un bug? eh sì…

SAFARI 6.0, SCROLL FREEZING BUG — Aprite il Develop Menu di Safari 6.0, attivate il debug Javascript e dite a Safari di fare stopword all’errore se ne capitasse uno, navigate fino a quando (questione di pochi click…) un sito web qualunque vi dà un errore (o fate voi una pagina con un errore), il debugger si attiverà e metterà in pausa il sito per farvi debuggare l’errore. Se non togliete la PAUSA del debug, tutte le altre pagine web che aprirete, userete, navigherete, nuove o già aperte non potranno più … scrollare! EH sì, viva Safari 6.0 — attendiamo fix 😀

Vabbuò, viva iOS!

 

« Articoli meno recenti Articoli più recenti »