M1 ARM Macs: MacMini/ MB Air / MBP13" + iMac 24" (2020)

Kaufe nen ARM M1 Mac


  • Umfrageteilnehmer
    137
D.h. dein Monitor ist jetzt dein Hub für die peripherie ?
und lädt auch noch das macbook ..........??

ja genau, der Monitor (Philips Momentum 43“) ist jetzt über ein einziges USB-C Kabel mit dem MacBook verbunden.

-das MacBook wird geladen
-ich habe 4K 60Hz
-und 2 zusätzliche USB3-A Ports hinten am Monitor (quasi die Hub-Funktion)

die laufen mit 5GBit/sec. An einem habe ich die externe SSD hängen, an dem anderen Anschluss ein 4-Fach USB2 Hub mit Maus/Tastatur. Läuft einwandfrei und vor allem schnell.

War total baff als ich mir den Monitor mal genauer angesehen habe und dann das Manuel rausgekramt hatte. Das der gleichzeitig noch das MacBook aufladen kann und ein Hub bietet ist natürlich der Kracher für mich. Alle wünsche erfüllt und ich muss überhaupt nichts extra kaufen.
 
Hatte zu meinem '12er MBP auch Apple TV und Streaming über Wlan aufs MBP, um das Signal dann über Wlan an Apple TV zu senden hat nie funktioniert, da Wlan überlastwt?

Mit mbp am netzwerk über kabel ging es dann.

sowas nutze ich schon ziemlich lange. Auch um SteamLink auf den Apple TV 4K zu bekommen. Das Geheimnis ist das WLAN bzw der Router. Ohne 5GHz wird das schwierig bis unmöglich. Da Ruckelt alles oder man muss die Auflösung runter drehen. Seit ich 1200Mbit WLAN nutze hatte ich nie wieder irgendwelche Probleme,
 
WLAN schaltet wohl auch ständig hin und her bei den Teilnehmern, da gibt es keine wirklichen gleichzeitigen Verbindungen. Neue Router können da wohl mehr.
 
Ja das macht es. hier gibts auch Abhilfe. Wir haben 2 DSL Anschlüsse. Einen über Telefonleitung und einen über Kabelnetz. An dem langsameren hängen alle Handys, Tablets etc.pp.. An dem Schnellen nur die Fernseher, Apple TV und Fire TV. Je nach dem was man dann vor hat, wechselt man mit einem mobilen Gerät dann einfach das WLAN. Zusätzlich gibts noch einen WLAN Verstärker, der Wiederrum ein drittes Netz generiert und einen LAN Ausgang hat. Da hängt ein Switch dran und an diesem meine Rechner. Alles total übertrieben irgendwie. Aber 2 Etagen 137qm Kabel legen ist noch verrückter.
 
<OT>
Was bringt denn WiFi für eine Übertragungsrate im Vergleich zum direkten Anschluss?
Kommt - wie immer - auf den Anwendungsfall an.

Für ein stetiges Backup sollte der Datendurchsatz relativ egal sein, wenn man inkrementelle Backups verwendet (bei Time Machine der Standard).
Allerdings dauert dann das erste initiale Backup entsprechend.

Für Dateitransfers (kein Streaming! - das funktioniert anders) sollte man allerdings eine moderne und schnelle Infrastruktur zur Verfügung haben - kostet allerdings Geld ;-) - man nehme:
- 5GHz WIFI (moderne Macs können das) - WLAN a/c schafft theoretisch ca. 1300 Mbit/s
- ausschließlich Cat7 Ethernet Kabel bzw. Gbit Switches - schafft theoretisch ca. 1000 Mbit/s
- im NAS nur schnelle SATA3 SSDs - redundantes RAID - schafft theoretisch 6 GB/s
- auf lahme Netzwerkprotokolle verzichten, z.B. NFS statt SMB/CIFS verwenden

Echtes (adaptives) Streaming passt sich der Netzwerkinfrastruktur an, indem stetig die nächsten Datenhappen geholt werden.
Passiert dieser Vorgang nicht schnell genug, wird z.B. die (Bild-)Qualität reduziert, um den benötigten Durchsatz zu reduzieren (oft liegen dafür Server-seitig mehrere H264/H265-Streams gleichzeitig in unterschiedlicher Qualität vor) - insofern spielt hier der lokale Datendurchsatz eine eher geringere Rolle.
AFAIK hat Netflix aktuell (wg. Corona) deren maximale Stream-Qualität reduziert.

Mir reicht das alles locker aus für mein Heimnetz. Ich käme ich nie auf die Idee, heutzutage noch eine nicht-ausfallsichere! SSD an meine Rechner zu klemmen (kein Backup? Kein Mitleid! ;-))
An eine externe NVME (an Thunderbold) kommt ein Netzwerk aktuell zugegebenermaßen auch nicht heran - die Frage ist nur: Wann?
Meine externe NVME benötige ich allenfalls, um meinen Mac probeweise von einer externen SSD zu starten - übers Netz wäre das allerdings schwierig bis unmöglich in der Apple-Welt.
Die habe ich nämlich noch, weil die "übergeblieben" ist, nachdem mein Mac eine 960GB interne NVME verpasst bekommen hat. Man gönnt sich ja sonst nix! ;-)

</OT>
 
Zuletzt bearbeitet:
Wenn man da nur einen Mac mit 256GB SSD intern hat, braucht man eventuell ständig einen externen Datenträger. Ob das so ohne weiteres per WLAN in gewohnter Geschwindigkeit geht? Also wenn da Samples, Spiele oder sonst was drauf installiert sind?
 
Ok, habe es anders gelöst. Mein Monitor hat einen USB-C Eingang, damit hab ich das Macbook verbunden und es lädt auf, 4K 60Hz und Vesa1000 HDR laufen ebenfalls. Und das beste ist, hinten dran sind noch zwei USB-Ports, die man im Menü wahlweise auf USB2 oder USB3 stellen kann. Festplatte rangeklemmt, an den zweiten einen hub mit maus und Tastatur und siehe da,., die platte bringt ihre 335MB/sec. sehr geil. ein Kabel ans book und alles verbunden,. mega.

Genau so mach ich das auch. Hab beim letzten Monitorkauf extra drauf geachtet, dass er das beherrscht. Grenzt natürlich die Auswahl ziemlich ein. Mein Dell hat sogar vier USB-Ports.
 
Genau so mach ich das auch. Hab beim letzten Monitorkauf extra drauf geachtet, dass er das beherrscht. Grenzt natürlich die Auswahl ziemlich ein. Mein Dell hat sogar vier USB-Ports.
Und ich hab da auf überhaupt gar nix geachtet. Wollte einen großen 4K und den gab es dann bei Amazon als B-Ware. von 589 auf 300 irgendwas reduziert. Da hab ich den einfach gekauft. Mega Schwein gehabt, würd ich mal behaupten.

Jetzt heißt es warten auf den Mac Mini mit M1X !!!
 
Hab beim letzten Monitorkauf extra drauf geachtet, dass er das beherrscht.
auf was achtet man da ?
viele Anschlüsse haben ja viele monitore.

@devilfish , ist deins ein "Monitor" oder doch ein TV ? .........bei nem TV wird die chance eher klein sein dass das so geht, oder ?
 
Das hier ist interessant ( bin erst bei Minute 7).....und wirklich gut gemacht

https://www.youtube.com/watch?v=OuF9weSkS68



ich seh auf YT das vom M1X gesprochen wird.
Die erwarten dass das einfach 8 performance Kerne bekommt statt 4.
Macht sinn der Gedanke.

Da ich z.bsp. haupsächlich single core speed brauch, und ansonsten wohl nur ganz selten mehr als 4 Kerne wirklich brauchen würde,
bin ich wohl gut bedient bis auf weiteres........alles richtig gemacht ! warten hätte mir hier mit aller voraussicht nach nichts gebracht.
ohne @devilfish `s posten in meinem i5 vs. i7 thread hätt ich das hier verschlafen !!......Hei........DANKE



Ist ein richtiger Monitor.
ok, Danke,
.....ich such grad nach nem 43" 4K, um die Sache komplett zu machen.
 
... ich bitte um Verzeihung, falls sich hier jemand durch mich zugespamt oder -trollt fühlen sollte,
aber ich möchte hier gerne als IT-Technik-affiner Mensch meiner Begeisterung gerade Ausdruck verleihen:
<GERUECHT>
</GERUECHT>

... unglaublich, was gerade passiert.

Paradigma-Wechsel.

Heftig. Meine Fresse. Alter Verwalter. Und. Und. Und ...

NACHTRACH: Ich geh dann 'mal Apple-Aktien kaufen ;-)
 
Zuletzt bearbeitet:
Ich versteh von dem allen nichts, aber in dem von mir geposteten Video, bzw die Erklärung wie der M1 aufgebaut ist,
klingt es für mich so, als sei der extrem gut für Echtzeitanwendungen. Also alles was AMD oder INtel ausbremsen könnte
ist beim M1 in doppelter bis 4-facher Ausführung vorhanden.

Bin echt gespannt wie die Ergebnisse aussehen werden wenn Cubase, Ableton und die PlugInhersteller auf den neuen
Prozessor optimiert oder angepasst haben.

Im übrigen wird in dem Video auch geklärt, warum 16Gb max als Ram angeboten werden und es wurde auch
der Verdacht aufgestellt, dass Apple das Problem mehr addressieren zu können noch nicht gelöst hat,
weshalb auch der Einsatz in den Mac Pros vorerst fraglich sein könnte.
 
Ich denke ja die erachten es einfach nicht für nötig bei den Einsteiger-Modellen mehr wie 16GB an zu bieten. Wie viele Menschen würden denn 32GB oder 64GB kaufen wollen? Und zu welchem Preis, wenn damit nur 0,2% der SOCs ausgestattet werden würden? Das macht rechnerisch für Apple überhaupt keinen Sinn sowas überhaupt an zu bieten. Leute die wirklich auf so viel RAM angewiesen sind, kaufen keinen 13“ Laptop .. die haben Mac Pros oder iMacs und warten auf das Update dieser Maschinen. So denk ich jedenfalls.
 
Ich denke ja die erachten es einfach nicht für nötig bei den Einsteiger-Modellen mehr wie 16GB an zu bieten.

Nene, das ist eine technische Limitierung des RISC bzw ARM Prozessors. Der kann nicht mehr wie 16GB

In dem Video wird das erklärt.

Ob das so ist, keine Ahnung, ich hab kein Plan von der Materie, aber das Video wirkt sehr gut recherchiert
und der Macher behauptet er sei Elektroingenieur, von daher gehe ich mal davon aus, das alles hat Hand und Fuß
 
Nene, das ist eine technische Limitierung des RISC bzw ARM Prozessors. Der kann nicht mehr wie 16GB

In dem Video wird das erklärt.

Ob das so ist, keine Ahnung, ich hab kein Plan von der Materie, aber das Video wirkt sehr gut recherchiert
und der Macher behauptet er sei Elektroingenieur, von daher gehe ich mal davon aus, das alles hat Hand und Fuß

kann ich mir nicht vorstellen, sorry.. die haben so viel brillantes Engineering im M1, da wird es an sowas wie RAM mit Sicherheit nicht scheitert.
 

" According to Apple, customers interested in buying a new Mac with more than 16GB of RAM will need to purchase an older, Intel-based model. Right now, the M1 cannot support more memory. "
 
Sag ich doch, die haben den so gebaut, das erst gar nicht mehr wie 16 geht
 
Zumindest den M1, der jetzt für die aktuellen Geräte vorgesehen ist.

Es handelt sich beim M1 ja um ein Package aus eigentlichem Chip und LPDDR4 RAM. Die purzeln ja so bereits aus der Fabrik... Da machte es wohl keinen Sinn den in etlichen Kombinationen herzustellen.

Ich vermute mal, dass es für die kommenden Versionen einen wie auch immer gearteten Sockel für den RAM geben wird, sodass Chip und RAM zumindest nicht mehr ganz so fest miteinander verbunden sind.
 
Zuletzt bearbeitet:
auf was achtet man da ?
viele Anschlüsse haben ja viele monitore.

Ich hab den Dell P2720DC. Der Dell S2719DC kann das auch. Ich glaube, die Namen der Dell-Displays, die das können, enden alle mit "DC". Generell musst du drauf achten, dass der Bildschirm einen USB-C-Eingang hat und mindestens 60 W an Power (für das MacBook) liefern kann. Wie gesagt, bei Dell gibt es einige, die das können. Bei Lenovo auch. Von Philips hatte ich auch mal einen hier, der das konnte. Allerdings war der ziemlich dunkel und hatte mehr Pixelfehler als ein Streuselkuchen Streusel hat. Er ging daher ganz schnell wieder zurück.
 
kann ich mir nicht vorstellen, sorry.. die haben so viel brillantes Engineering im M1, da wird es an sowas wie RAM mit Sicherheit nicht scheitert.

Auch CPUs haben ihre Limits, zB in der Anzahl der Adreßleitungen, die man zum Ansprechen von Speicher braucht. Diese Adreßleitungen hängen direkt mit dem Adreßzähler zusammen, und je nach Design braucht es da evtl einen neuen Entwurf. Beim M1 wird das Ganze eh seriell umgesetzt sein, allerdings wird das sowohl im Prozessor als auch im Speicher wieder auseinandergedröselt, denn Speicher und Register sind parallel.

Von Philips hatte ich auch mal einen hier, der das konnte. Allerdings war der ziemlich dunkel und hatte mehr Pixelfehler als ein Streuselkuchen Streusel hat. Er ging daher ganz schnell wieder zurück.

Philips halt. Waren schon beim Atari die Monitore mit dem meisten Ausfall (iirc einer der TTMs), weil kalte Lötstellen ab Werk.
 
Ich habe gerade mal recherchiert und wenn man sich einen ARM-Server kaufen möchten, dann kann da durchaus 1,5TB Ram verbaut sein, der ist natürlich nicht intern in der CPU mit drin.
Anmerkung 2020-12-08 064217.png
https://happyware.com/gigabyte-2he-rack-arm-dual-thunderx2-server-r281-t94?c=560

Der hier kann bis 128 Kerne und 4TB Ram:
The company also has one 72-core part, four 64-core parts in a range of clock speeds and TDPs, plus a 48-core and two 32-core parts. All 11 processors support up to eight channels of DDR4-3200 ECC memory and a maximum capacity up to 4TB plus up to 128 lanes of high-speed PCIe 4.0 lanes per socket.
https://www.networkworld.com/article/3564514/ampere-announces-128-core-arm-server-processor.html
 
Zuletzt bearbeitet von einem Moderator:
Philips halt. Waren schon beim Atari die Monitore mit dem meisten Ausfall (iirc einer der TTMs), weil kalte Lötstellen ab Werk.
also ich kann über den Philips nichts schlechtes sagen, hatte aber auch noch nie irgend ein Gerät mit Pixelfehler. Egal von welcher Firma. Der Philips kann halt HDR1000. Das ist so krass Hell, den stellt man sowieso nur auf 70-80% Helligkeit. Alles andere lässt einen erblinden, wenn in einem Spiel oder Film die Sonne aufgeht.. Das ist extrem hell. Also so richtig extrem.
 
Auch CPUs haben ihre Limits, zB in der Anzahl der Adreßleitungen, die man zum Ansprechen von Speicher braucht. Diese Adreßleitungen hängen direkt mit dem Adreßzähler zusammen, und je nach Design braucht es da evtl einen neuen Entwurf. Beim M1 wird das Ganze eh seriell umgesetzt sein, allerdings wird das sowohl im Prozessor als auch im Speicher wieder auseinandergedröselt, denn Speicher und Register sind parallel.

Man nehme dann dual-M1 und adressiert diese 2x16GB. Fertig.
 
Ob das geht ? Wenn ja würde man für die 64GB gleich 4x den M1 bekommen. Keine schlechte Idee ?
Ich denke, dass sowas durch aus machbar ist. Das macOS müsste dem entspr. (geringfügig) optimiert werden und alles Andere mach ein dual/quad-CPU-Logicboard samt Controller auf Anweisung des OS (was eigentlich bereits grössenteils im M1 untergebracht wurde).
Es geht im Grunde nur um automatische Arbeits-/Speicherverteilung, wie man es von Mehrkern-x86-CPUs bez. L2-Cache her kennt. Das kann der M1 (bzw. die Apple A-CPUs) inkl. L-Cache + RAM als SoC zufriedenstellend gut).
Ich kann mir auch vorstellen, dass die zukünftigen M1-Mac-Pro's sowas optional bieten können/werden. Durch mehrere RISC im Verbund baut man ein System auf, dass (entfernt) an das CISC/x86-Design (als Ganzes) erinnert und so die Möglichkeit zur multi-Adressierung bieten könnte.

Man stelle sich vor, was ein M1X oder M2 (oder später) alleine leisten könnte .. und dann x2 oder x4 davon.
Und selbst bei x4 M1X-CPU-Verbund wären die Anschaffungskosten der Hardware durchaus überschaubar. Die Leistung wäre jedoch unglaublich enorm im Vergleich zu dem, was heute so geht.
 
Zuletzt bearbeitet:
Eine reine Parallelisierung ganzer SoCs bringt doch nicht annähernd eine lineare Skalierung der Leistung wenn es um einzelne Programme geht.
Es kann also kaum das Konzept sein 2 M1 irgendwo zu verbauen.

Im Serverbereich mag das ja was anderes sein als man da mit anderen Datenstrukturen arbeitet.
 
man wird warten müssen um mehr zu wissen ;-)
derweil meint die Gerüchteküche auf YT die sich wohl alle auf denselben "leak" beziehen dass es 16+4 Kern Modelle geben wird,
und man erwartet ne Fette GPU für den Mac pro.


geil, alles uninteressant für mich !
ich guck dann in ein paar Jahren wieder wenn der singlecore speed hoch geht.
für nen Tausender ist das ne geile sache so ne kapable mühle zu bekommen ( 8MB/512GB)
/ Chapeaux
 
Eine reine Parallelisierung ganzer SoCs bringt doch nicht annähernd eine lineare Skalierung der Leistung wenn es um einzelne Programme geht.
Es kann also kaum das Konzept sein 2 M1 irgendwo zu verbauen.

Im Serverbereich mag das ja was anderes sein als man da mit anderen Datenstrukturen arbeitet.
Es wird nicht doppelt so schnell (bei einem dual-RISC z.B.) - das ist, denke ich, jedem klar. Es kann aber die Adressierung verdoppeln/vervierfachen/etc. Und kann im Multicore (hier bei RISC ist das etwas anders als bei CISC) die Aufgaben aufteilen, bzw. die Performance entlasten.
Multi-RISC-Platformen (simple) gibt es auch mit UAD oder seinerzeit mit TC PoCo. Oder auch bei Virus Ti 1 vs. 2 kann man die Leistungssteigerung beobachten.
Mit ging's dabei aber viel mehr um RAM-Adresierung (2x16, 4x16, etc..). Allerdings müssten die Applikationen entspr. angepasst werden - da der erste M1 nicht auf die RAM-Adressierung des zweiten M1 zugreifen kann (achtung: Spekulation). Vielleicht geht's heute auch anders und das CPU-Design kann hierbei (obwohl als RISC) erweitert werden.
 
Zuletzt bearbeitet:


Zurück
Oben