Mecox Capital Partners startet mit Borish-Rückenwind; OpenAI ringt um KI-Sicherheit

Mecox Capital Partners startet mit Borish-Rückenwind; OpenAI ringt um KI-Sicherheit

Aktualisiert:
4 Min. Lesezeit
AI-Generated
Human-verified
Teilen:

Keine Anlageberatung • Nur zu Informationszwecken

Der Finanzmarkt blickt auf zwei spannende Entwicklungen: Zum einen startet der neue Hedgefonds Mecox Capital Partners mit namhafter Unterstützung von Peter Borish, einem Mitbegründer von Tudor Investment Corp. Zum anderen steht der KI-Pionier OpenAI vor internen und externen Herausforderungen bezüglich der Sicherheit seiner schnell fortschreitenden Künstlichen Intelligenz.

Neuer Hedgefonds Mecox Capital Partners startet mit prominenter Unterstützung

Mecox Capital Partners wird am 1. Januar des neuen Jahres den Handel aufnehmen. Der Hedgefonds startet mit einem Kapital von 50 Millionen US-Dollar und kann auf die Unterstützung eines prominenten Investors zählen: Peter Borish. Borish ist bekannt als Mitbegründer der Tudor Investment Corp, die er zusammen mit dem Milliardär Paul Tudor Jones ins Leben rief. Zudem ist er Gründungsmitglied der Robin Hood Foundation, einer New Yorker Wohltätigkeitsorganisation, die sich der Armutsbekämpfung widmet.

Richard Passer, der Gründer von Mecox Capital Partners, bestätigte Borishs Engagement. Borish äußerte sich per E-Mail: „Discretionary Trading ist besonders herausfordernd, aber Richard hat die Disziplin, um erfolgreich zu sein.“ Die beiden lernten sich vor Jahren beim Basketballspielen kennen und blieben seither in Kontakt. Der Fonds hat seinen Sitz in Bridgehampton, einem Ortsteil von Long Island.

Die Strategie von Mecox, benannt nach einer Bucht in den Hamptons, konzentriert sich auf kurzfristige Optionen. Typischerweise werden drei bis fünf Trades pro Tag durchgeführt. Richard Passer wird die Rolle des Chief Investment Officers (CIO) übernehmen. Er begann seine Karriere als Trader bei Asset Managern wie Endeavour Capital Advisors und Vollero Beach, bevor er in Investor Relations und Operations wechselte. Zuletzt war er Marketing- und IR-Leiter des technologieorientierten Satori Fund von Dan Niles.

Als Chief Portfolio Officer (CPO) fungiert Kiran Srinivas. Er verfügt über mehr als zwei Jahrzehnte Erfahrung in Investmentpositionen bei Branchengrößen wie D.E. Shaw, Millennium und Maverick. Zuletzt war Srinivas Portfoliomanager bei First New York, einem etablierten Multi-Strategie-Investmentmanager.

OpenAI: Hohe Gehälter und große Herausforderungen bei der KI-Sicherheit

Währenddessen rückt bei OpenAI, dem Unternehmen hinter ChatGPT, die Sicherheit von Künstlicher Intelligenz (KI) in den Fokus. Eine kürzlich ausgeschriebene Position als „Head of Preparedness“ bietet ein Jahresgehalt von 555.000 US-Dollar zuzüglich Aktienanteilen. Sam Altman, CEO von OpenAI, beschrieb die Rolle in einem X-Post als „stressig“ und „eine kritische Rolle in einer wichtigen Zeit“.

Altman betonte, dass Modelle sich schnell verbessern und bereits zu vielen großartigen Dingen fähig sind, aber auch „echte Herausforderungen“ mit sich bringen. Dazu zählen potenzielle Arbeitsplatzverluste, Fehlinformationen, Missbrauch durch böswillige Akteure, Umweltzerstörung und die Erosion menschlicher Handlungsfähigkeit. Bereits 2025 zeigten sich Auswirkungen auf die psychische Gesundheit, und Modelle werden zunehmend besser darin, kritische Sicherheitslücken in Computersystemen zu finden.

ChatGPT hat KI-Chatbots bei Verbrauchern populär gemacht, die die Technologie für Recherchen, E-Mails oder Reiseplanungen nutzen. Einige Anwender nutzen die Bots jedoch auch als Therapiealternative, was in einigen Fällen psychische Probleme wie Wahnvorstellungen verschärft hat. OpenAI gab im Oktober bekannt, mit Fachleuten für psychische Gesundheit zusammenzuarbeiten, um die Interaktion von ChatGPT mit Nutzern, die besorgniserregendes Verhalten zeigen, zu verbessern.

Die ursprüngliche Mission von OpenAI ist die Entwicklung von KI zum Wohle der gesamten Menschheit, wobei Sicherheitsprotokolle von Anfang an zentral waren. Ehemalige Mitarbeiter äußerten jedoch Bedenken, dass das Unternehmen unter dem Druck, Gewinne zu erzielen, die Sicherheit zugunsten „glänzender Produkte“ vernachlässigt habe. Jan Leiki, ehemaliger Leiter des inzwischen aufgelösten Sicherheitsteams bei OpenAI, erklärte in einem X-Post im Mai 2024 seinen Rücktritt: „Der Bau von Maschinen, die klüger sind als Menschen, ist ein von Natur aus gefährliches Unterfangen. OpenAI trägt eine enorme Verantwortung im Namen der gesamten Menschheit.“ Er fügte hinzu: „Doch in den letzten Jahren sind Sicherheitskultur und -prozesse hinter glänzenden Produkten zurückgetreten.“

Weniger als eine Woche später trat ein weiterer Mitarbeiter unter Berufung auf Sicherheitsbedenken zurück. Daniel Kokotajlo, ebenfalls ein ehemaliger Mitarbeiter, schrieb in einem Blogbeitrag im Mai 2024, er sei zurückgetreten, weil er „das Vertrauen verlor, dass [OpenAI] sich zum Zeitpunkt der AGI verantwortungsvoll verhalten würde.“ Kokotajlo berichtete später, dass die Anzahl der Mitarbeiter, die sich mit AGI-Sicherheitsfragen befassten, von ursprünglich etwa 30 auf fast die Hälfte reduziert wurde. Aleksander Madry, der frühere „Head of Preparedness“, übernahm im Juli 2024 eine neue Rolle. Die Position ist Teil des Safety Systems Teams von OpenAI, das Schutzmaßnahmen, Frameworks und Bewertungen für die Modelle des Unternehmens entwickelt.

Erwähnte Persönlichkeiten