Markteinführung der neuen Apple Headgear, Google AI-Tools und GPT-4

Die Mixed-Reality-Kopfbedeckung von Apple wird auf der WWDC 2023 vorgestellt

Laut dem neuesten Bericht von Bloomberg wird Apple die seit langem gemunkelte Mixed-Reality-Kopfbedeckung auf der diesjährigen Worldwide Developers Conference (WWDC) vorstellen, die traditionell im Juni 2023 stattfindet.

Der Enthüllungstermin wurde aufgrund technischer Schwierigkeiten mehrfach verschoben. Es sollte ursprünglich im Frühjahr auf den Markt kommen, wird aber jetzt auf der WWDC angekündigt, bevor es Ende 2023 in den Handel kommt.

Es wird angenommen, dass das Headset des Unternehmens, das Gerüchten zufolge „Reality Pro“ genannt wird, ein sehr leistungsfähiges Gerät sein wird, das einer Skibrille ähnelt und 3D-Inhalte übertragen kann. Es hat viele Funktionen, wie erweitertes Hand-Tracking, die Fähigkeit, FaceTime-Anrufer realistisch zu rendern, eine digitale Krone, mit der Sie die virtuelle Realität verlassen können, und vieles mehr.

Nach den neuesten verfügbaren Informationen will Apple die Kopfbedeckung für etwa 3.000 US-Dollar verkaufen, was sie zum bisher teuersten tragbaren Artikel des Unternehmens macht.

Wie wir alle wissen, kann sich das Veröffentlichungsdatum solcher bahnbrechender Produkte ändern, aber dieses Mal hofft Apple, das Produkt bis Ende 2023 verfügbar zu machen. Wenn alles wie geplant läuft, wird die Apple MR-Kopfbedeckung höchstwahrscheinlich international auf den Markt kommen auf der WWDC, und das Gadget könnte Ende 2023 in die Läden kommen.

  So spielen Sie Wii U-Spiele auf Ihrem PC mit Cemu

Das Mixed-Reality-Headset von Apple gewinnt möglicherweise nicht so schnell an Popularität wie die anderen Apple-Produkte, sobald es debütiert. Dennoch hat Apples Mixed-Reality-Headset laut zahlreichen technischen Meinungen das Potenzial zu wachsen und könnte in naher Zukunft zu einem bedeutenderen Umsatzbringer für Apple werden.

Microsoft, Alphabet und andere Unternehmen geben Milliarden von Dollar für die Entwicklung und Implementierung von KI-Technologie aus, um Marktanteile in verschiedenen Branchen zu gewinnen.

Um mit ChatGPT von OpenAI (Microsoft investierte Milliarden von Dollar in diese Firma) zu konkurrieren, startete die Muttergesellschaft von Google, Alphabet, einen von LaMDA betriebenen KI-Dienst, Bard AI.

Google hat kürzlich mehrere KI-Integrationen angekündigt, um dem maschinellen Lernen seiner Workspace-Produkte die Generierung von Text und Grafiken zu ermöglichen. Mehrere zukünftige generative KI-Funktionen für die Workspace-Apps von Google, darunter Google Docs, Gmail, Sheets und Slides, wurden angekündigt.

Zu den Funktionen gehören:

  • Neue Möglichkeiten für die KI von Google Documents zum Brainstorming, Zusammenfassen und Generieren von Inhalten.
  • Die Fähigkeit von Google Mail, ganze E-Mails aus den schnellen Aufzählungspunkten der Benutzer zu erstellen.
  • Die Fähigkeit von Google Slides, KI-Bilder, Audio und Video zur Veranschaulichung von Präsentationen zu erstellen.
  So löschen Sie Apps auf Nintendo Switch

Das Unternehmen demonstrierte, wie Cloud-Kunden KI nutzen können, um E-Mails an Kollegen zu senden, Präsentationen und Verkaufsschulungsunterlagen zu erstellen und sich während Besprechungen Notizen zu machen. Entwickler können jetzt Anwendungen erstellen, die die Google-Technologie verwenden, da das Unternehmen einige seiner zugrunde liegenden KI-Modelle veröffentlicht hat.

ChatGPT debütierte im vergangenen Jahr, und Microsoft veröffentlichte seine Chatbot-fähige Suchmaschine Bing im Februar 2023. Seitdem hat Google seine Entschlossenheit gezeigt, die Konkurrenten im neuen KI-Rennen zu überholen, indem es eine Reihe von KI-Updates für seine Produkte ankündigte.

Eine Gruppe von in den USA ansässigen „vertrauenswürdigen Testern“ wird Zugriff auf mehrere neue KI-Funktionen haben, die das Unternehmen diesen Monat eingeführt hat. Google behauptet, dass diese und andere Funktionen später im Jahr der Öffentlichkeit zugänglich gemacht werden, gab jedoch kein genaues Datum bekannt.

OpenAI kündigt GPT-4 an, das Text- oder Bildeingaben akzeptieren kann

OpenAI hat die neueste GPT-4-Version in seinem Forschungsblog veröffentlicht. Dem Bericht zufolge ist GPT-4 ein beträchtliches multimodales System, das Bild- und Texteingaben akzeptieren kann, während es nur Textausgaben erzeugt.

Nach monatelangem Geflüster und Spekulationen hat OpenAI endlich GPT-4 enthüllt, eine revolutionäre Verbesserung der Problemlösungsfähigkeit.

Open AI behauptet, GPT-4 sei „innovativer und kollaborativer als je zuvor“ und „genauer bei der Bewältigung schwieriger Situationen“. Obwohl es sowohl Text- als auch Bildeingaben verstehen kann, werden nur Textantworten erzeugt.

  Was es ist, wie es funktioniert und Lernressourcen

Laut OpenAI hatte GPT-4 ein sechsmonatiges Sicherheitstraining durchlaufen, das auch feststellte, dass es in internen Tests „um 82 % weniger wahrscheinlich auf Anfragen nach eingeschränkten Inhalten antwortete“ und „um 40 % eher sachliche Antworten gab als GPT -3,5.“

In einem inoffiziellen Gespräch behauptete OpenAI, dass es einen „feinen“ Unterschied zwischen GPT-4 und seinem Vorgänger GPT-3.5 gibt (GPT-3.5 ist das Modell, das ChatGPT antreibt). Sam Altman, CEO von OpenAI, erklärte, dass GPT-4 „immer noch unvollkommen, immer noch eingeschränkt“ ist, und fügte hinzu, dass es „beim ersten Gebrauch bemerkenswerter erscheint als wenn man mehr Zeit damit verbracht hat“.

Die Systeme haben immer noch viele der gleichen Probleme, einschließlich der Tatsache, dass sie unter vielen realen Umständen weniger effektiv als Menschen sind und nach verschiedenen beruflichen und akademischen Kriterien auf menschlichem Niveau funktionieren, warnt OpenAI.

Die Öffentlichkeit kann auf das aktualisierte GPT-4 über ChatGPT Plus zugreifen, die ChatGPT-Mitgliedschaft von OpenAI für 20 US-Dollar pro Monat, die Microsofts Bing-Chatbot unterstützt. Es wird als API verfügbar sein, auf der Programmierer aufbauen können.