Search Results

Search found 57067 results on 2283 pages for 'jean marc gaudron(at)oracle com'.

Page 396/2283 | < Previous Page | 392 393 394 395 396 397 398 399 400 401 402 403  | Next Page >

  • Oracle Exalogic Elactisc Cloud X2-2 est disponible, pour une meilleure expérience de développement dans le cloud

    Oracle Exalogic Elactisc Cloud X2-2 est disponible, pour une meilleure expérience de développement dans le cloud Mise à jour du 08.12.2010 par Katleen Oracle vient d'annoncer ce jour l'arrivée de son infrastructure cloud "Exalogic Elastic Cloud X2-2". Celle-ci servira de base de consolidation pour la quasi globalité des applications Java et non-Java, ainsi que pour les charges de travail. Ce système hardware et software mélange des processeurs x86 cutting-edge 64-bit, une fabrication I/O basée sur InfiniBand ; ainsi qu'un stockage solid-state sur Oracle WebLogic Server. Cette combinaison inédite permet une interaction entre divers composants d'une Java app et l'I/O zero-copy....

    Read the article

  • Microsoft dévoile les premiers jeux 3D pour smartphones, qui tourneront sous Windows Phone 7 Series

    Mise à jour du 10.03.2010 par Katleen Microsoft dévoile les premiers jeux 3D pour smartphones, qui tourneront sous Windows Phone 7 Series Microsoft vient de dévoiler les premières images de deux jeux 3D toujours en phase de développement avec Direct3D. Ils tourneront sous les smartphones équipés de Windows Phone 7 Series. La démonstration a été faite sur un prototype de Windows Phone Asus, et les jeux présentés s'intitulent The Harvest et Battle Punks. Qu'apporteront de tels jeux pour le marché des smartphones ? On pense à l'échec cuisant rencontré par Nokia avec son N-Gage sur...

    Read the article

  • Guest post: 2010 - Threats to copyleft

    <b>OSS Watch: </b>"Combining freedoms and copyleft in the Gnu GPL license (invented by Richard Stallman) was the cornerstone of free software. This is now questioned due to the proliferation of incompatible copyleft licenses."

    Read the article

  • Digg Moves From MySQL to NoSQL

    <b>Datamation:</b> "Social networking and voting site Digg is rewriting its underlying software infrastructure in an effort to improve performance and scalability. Part of that effort involves moving away from the MySQL database that has helped to power Digg since its creation."

    Read the article

  • Exposer des modèles C++ imbriqués à QML, un article de Christophe Dumez traduit par Thibaut Cuvelier

    Bien que ce cas d'imbrication puisse sembler rare en pratique, le fait que XML n'ait pas de support direct pour les modèles arborescents rend l'utilisation de modèles C++ imbriqués très utile pour obtenir une structure en arbre. Un exemple de cas pratique où les modèles imbriqués sont utiles est le stockage de conversations Facebook. Un mur Facebook est constitué de notifications sociales (modèle racine), chacun pouvant avoir des commentaires (modèles internes). Exposer des modèles C++ imbriqués à QML...

    Read the article

  • Chrome intègre Google Instant grâce à des performances améliorées et passe la barre des 120 millions d'utilisateurs

    Chrome intègre Google Instant et passe la barre des 120 millions d'utilisateurs Mise à jour du 08.12.2010 par Katleen Lors de sa keynote évènement d'hier soir, Google a fait quelques annonces concernant son navigateur. Il est désormais utilisé quotidiennement par 120 millions de personnes. C'est encore "peu" au regard de certains, et du marché, mais cela représente tout de même une sacrée évolution par rapport aux 70 millions d'internautes qui l'utilisaient chaque jour en mai 2010. Ceci alloue au logiciel la troisième place mondiale (9.26% de part de marché), derrière Internet Explorer et Firefox. Chrome intégrera également Google Instant dans l'omnibox et dans...

    Read the article

  • Recherche en ligne : Bing gagne du terrain annonce ComScore, tandis que Google et Yahoo reculent légèrement

    Recherche en ligne : Bing gagne du terrain annonce ComScore, tandis que Google et Yahoo reculent légèrement Mise à jour du 16.12.2010 par Katleen Les statistiques de la recherche en ligne pour novembre 2010 viennent de tomber. Si Google est toujours en tête (pas de surprise de ce côté là), la firme de Mountain View perd en revanche un peu de part de marché au profit de Bing. Yahoo connaît aussi une petite baisse. Le volume total de recherches explicites aux USA a faiblit de 5.2% par rapport à novembre 2009 ; et de 0.6% au quatrième trimestre comparé au troisième. Pour Google, la part de marché globale explicite (requêtes domestiques) était de 66.2% en novembre (contre 66.3% en octobre...

    Read the article

  • Using Hadooop (HDInsight) with Microsoft - Two (OK, Three) Options

    - by BuckWoody
    Microsoft has many tools for “Big Data”. In fact, you need many tools – there’s no product called “Big Data Solution” in a shrink-wrapped box – if you find one, you probably shouldn’t buy it. It’s tempting to want a single tool that handles everything in a problem domain, but with large, complex data, that isn’t a reality. You’ll mix and match several systems, open and closed source, to solve a given problem. But there are tools that help with handling data at large, complex scales. Normally the best way to do this is to break up the data into parts, and then put the calculation engines for that chunk of data right on the node where the data is stored. These systems are in a family called “Distributed File and Compute”. Microsoft has a couple of these, including the High Performance Computing edition of Windows Server. Recently we partnered with Hortonworks to bring the Apache Foundation’s release of Hadoop to Windows. And as it turns out, there are actually two (technically three) ways you can use it. (There’s a more detailed set of information here: http://www.microsoft.com/sqlserver/en/us/solutions-technologies/business-intelligence/big-data.aspx, I’ll cover the options at a general level below)  First Option: Windows Azure HDInsight Service  Your first option is that you can simply log on to a Hadoop control node and begin to run Pig or Hive statements against data that you have stored in Windows Azure. There’s nothing to set up (although you can configure things where needed), and you can send the commands, get the output of the job(s), and stop using the service when you are done – and repeat the process later if you wish. (There are also connectors to run jobs from Microsoft Excel, but that’s another post)   This option is useful when you have a periodic burst of work for a Hadoop workload, or the data collection has been happening into Windows Azure storage anyway. That might be from a web application, the logs from a web application, telemetrics (remote sensor input), and other modes of constant collection.   You can read more about this option here:  http://blogs.msdn.com/b/windowsazure/archive/2012/10/24/getting-started-with-windows-azure-hdinsight-service.aspx Second Option: Microsoft HDInsight Server Your second option is to use the Hadoop Distribution for on-premises Windows called Microsoft HDInsight Server. You set up the Name Node(s), Job Tracker(s), and Data Node(s), among other components, and you have control over the entire ecostructure.   This option is useful if you want to  have complete control over the system, leave it running all the time, or you have a huge quantity of data that you have to bulk-load constantly – something that isn’t going to be practical with a network transfer or disk-mailing scheme. You can read more about this option here: http://www.microsoft.com/sqlserver/en/us/solutions-technologies/business-intelligence/big-data.aspx Third Option (unsupported): Installation on Windows Azure Virtual Machines  Although unsupported, you could simply use a Windows Azure Virtual Machine (we support both Windows and Linux servers) and install Hadoop yourself – it’s open-source, so there’s nothing preventing you from doing that.   Aside from being unsupported, there are other issues you’ll run into with this approach – primarily involving performance and the amount of configuration you’ll need to do to access the data nodes properly. But for a single-node installation (where all components run on one system) such as learning, demos, training and the like, this isn’t a bad option. Did I mention that’s unsupported? :) You can learn more about Windows Azure Virtual Machines here: http://www.windowsazure.com/en-us/home/scenarios/virtual-machines/ And more about Hadoop and the installation/configuration (on Linux) here: http://en.wikipedia.org/wiki/Apache_Hadoop And more about the HDInsight installation here: http://www.microsoft.com/web/gallery/install.aspx?appid=HDINSIGHT-PREVIEW Choosing the right option Since you have two or three routes you can go, the best thing to do is evaluate the need you have, and place the workload where it makes the most sense.  My suggestion is to install the HDInsight Server locally on a test system, and play around with it. Read up on the best ways to use Hadoop for a given workload, understand the parts, write a little Pig and Hive, and get your feet wet. Then sign up for a test account on HDInsight Service, and see how that leverages what you know. If you're a true tinkerer, go ahead and try the VM route as well. Oh - there’s another great reference on the Windows Azure HDInsight that just came out, here: http://blogs.msdn.com/b/brunoterkaly/archive/2012/11/16/hadoop-on-azure-introduction.aspx  

    Read the article

  • Intel Atom: NVIDIA ION vs. Radeon HD 4330 Graphics

    <b>Phoronix:</b> "Before devoting this hardware to the farm, we ran a few benchmarks comparing the performance of NVIDIA's ION GeForce 9400M graphics processor to the ATI Radeon HD 4330 graphics processor found on the MSI 6667BB-004US and several other Atom-powered devices."

    Read the article

  • William C. Lowe, le créateur de l'IBM PC est décédé, son appareil avait contribué à l'essor de Microsoft et Intel

    Le créateur du PC est décédé un périphérique qui a contribué à l'essor des firmes Microsoft et Intel William C. Lowe, le père du PC, a rendu l'âme le 19 octobre 2013 à la suite d'une crise cardiaque. Ce qu'on retient de ce grand homme est qu'il fut celui qui a donné à IBM son tout premier ordinateur personnel destiné au grand public. Dans les années 70, Big Blue a pratiquement le monopole de la construction des mainframes pour les grandes entreprises et les gouvernements, mais un marché semble...

    Read the article

< Previous Page | 392 393 394 395 396 397 398 399 400 401 402 403  | Next Page >